JP2013224999A - Program for implementing musical image display method and musical image display device - Google Patents

Program for implementing musical image display method and musical image display device Download PDF

Info

Publication number
JP2013224999A
JP2013224999A JP2012096421A JP2012096421A JP2013224999A JP 2013224999 A JP2013224999 A JP 2013224999A JP 2012096421 A JP2012096421 A JP 2012096421A JP 2012096421 A JP2012096421 A JP 2012096421A JP 2013224999 A JP2013224999 A JP 2013224999A
Authority
JP
Japan
Prior art keywords
video effect
display
video
pointer
cpu
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012096421A
Other languages
Japanese (ja)
Other versions
JP5870831B2 (en
Inventor
Naoya Sasaki
直哉 佐々木
Masaru Hiratsuka
賢 平塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2012096421A priority Critical patent/JP5870831B2/en
Publication of JP2013224999A publication Critical patent/JP2013224999A/en
Application granted granted Critical
Publication of JP5870831B2 publication Critical patent/JP5870831B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To implement a musical image display method which is capable of meeting user's request to enjoy variation of a plurality of visual effects during playback or performance of a musical piece and maker's and creator's requests to give users pleasure of the variation.SOLUTION: When a user gives an instruction to start visual effect display and editing processing, a display layer of a first part and a display layer of a second part are mixed in accordance with current settings, and the result is displayed on a touch panel of a musical image display device. Next, when a switch for designating, for example, a section A on an electronic instrument connected to the musical image display device is depressed, a message assigned to this switch is generated and is transmitted to the musical image display device. The musical image display device changes a pointer to visual effects to a point associated with the section A, generates image data on the basis of a single piece of visual effect data indicated by the pointer and stores the image data in the display layer of the first part.

Description

本発明は、映像効果を複数記憶し、この複数の映像効果の中から選択されたいずれかの映像効果に基づいて、入力された演奏指示に応じた画面表示を行う音楽画像表示方法を実現するためのプログラムおよび音楽画像表示装置に関する。   The present invention realizes a music image display method for storing a plurality of video effects and performing screen display according to an input performance instruction based on any one of the video effects selected from the plurality of video effects. And a music image display apparatus.

映像効果を複数記憶し、この複数の映像効果の中から選択されたいずれかの映像効果に基づいて、入力された演奏指示に応じた画面表示を行う音楽画像表示装置は、従来から知られている。   2. Description of the Related Art Music image display devices that store a plurality of video effects and perform screen display according to an input performance instruction based on one of the video effects selected from the plurality of video effects are conventionally known. Yes.

このような音楽画像表示装置として、次のように構成されたものがある(たとえば、特許文献1参照)。すなわち、
(A)楽曲の各音楽的要素(メロディ、ハーモニーおよびリズム)にそれぞれ対応する複数の描画パターンを格納するメロディ用描画パターンデータベース、ハーモニー用描画パターンデータベースおよびリズム用描画パターンデータベースを記憶し、
(B)スタイル選択スイッチによって各音楽的要素についての各描画パターンを選択し、
(C)音楽イベント(演奏情報)を入力し、
(D)入力された音楽イベントを解析し、
(E)当該音楽イベントがメロディイベントであれば、メロディ用描画パターンデータベースを参照して、当該音楽イベントに対応する描画パターンの画像データを生成し、
(F)当該音楽イベントがハーモニーイベントであれば、ハーモニー用描画パターンデータベースを参照して、当該音楽イベントに対応する描画パターンの画像データを生成し、
(G)当該音楽イベントがリズムイベントであれば、リズム用描画パターンデータベースを参照して、当該音楽イベントに対応する描画パターンの画像データを生成し、
(H)メロディ表示スイッチ、ハーモニー表示スイッチおよびリズム表示スイッチのうちの2以上のスイッチがオン状態とされているときには、タイル表示スイッチ、重ね合わせスイッチあるいは時分割表示スイッチにより設定されている表示態様で、上記(E)〜(G)で生成した画像データのうち、上記オン状態とされている音楽的要素の画像データを表示する。
As such a music image display device, there is one configured as follows (for example, see Patent Document 1). That is,
(A) storing a drawing pattern database for melody, a drawing pattern database for harmony, and a drawing pattern database for rhythm for storing a plurality of drawing patterns respectively corresponding to each musical element (melody, harmony and rhythm) of the music;
(B) Select each drawing pattern for each musical element with the style selection switch,
(C) Enter a music event (performance information),
(D) Analyzing the input music event,
(E) If the music event is a melody event, refer to the melody drawing pattern database to generate image data of a drawing pattern corresponding to the music event;
(F) If the music event is a harmony event, refer to the harmony drawing pattern database to generate image data of a drawing pattern corresponding to the music event;
(G) If the music event is a rhythm event, the image data of the drawing pattern corresponding to the music event is generated with reference to the rhythm drawing pattern database;
(H) When two or more of the melody display switch, the harmony display switch, and the rhythm display switch are turned on, the display mode is set by the tile display switch, the overlay switch, or the time division display switch. Among the image data generated in the above (E) to (G), the image data of the musical element in the on state is displayed.

特開2000−276137号公報JP 2000-276137 A

しかし、上記従来の音楽画像表示装置では、スタイル選択スイッチによって選択されるスタイルは、演奏あるいは再生対象の楽曲のスタイルであるため、当該楽曲が演奏あるいは再生されている間は、音楽的要素毎に同じ描画パターンの画像データが生成されて表示され、演奏あるいは再生の途中で、他の描画パターンに切り替え、この切り替え後の描画パターンの画像データを生成して表示することはできなかった。その結果、楽曲を再生あるいは演奏している最中に、複数の映像効果の変化を楽しみたいというユーザの要望や、当該変化をユーザに楽しませたいというメーカやクリエータの要望に応えることはできなかった。   However, in the above-described conventional music image display device, the style selected by the style selection switch is the style of the music to be played or played back. Therefore, while the music is being played or played, the style is selected for each musical element. Image data of the same drawing pattern is generated and displayed, and it is not possible to switch to another drawing pattern during performance or playback, and to generate and display image data of the drawing pattern after the switching. As a result, while playing or playing music, we cannot respond to the user's request to enjoy changes in multiple video effects, or the manufacturer or creator's request to make the changes enjoyable for the user. It was.

本発明は、この点に着目してなされたものであり、ユーザ、メーカおよびクリエータの上記要望に応えることができる音楽画像表示方法を実現するためのプログラムおよび音楽画像表示装置を提供することを目的とする。   The present invention has been made paying attention to this point, and it is an object of the present invention to provide a program and a music image display device for realizing a music image display method capable of meeting the above-mentioned demands of users, manufacturers, and creators. And

上記目的を達成するため、請求項1に記載のプログラムは、演奏指示を受け取る受取手順と、所定の条件が成立したときに、記憶手段に記憶された複数の映像効果からなる映像効果組からいずれか1つの映像効果を選択する選択手順と、前記選択手順によって選択された映像効果の表示態様を、前記受取手順によって受け取った演奏指示に応じて変動させて、表示手段に表示させる表示手順とをコンピュータに実行させるためのものであることを特徴とする。   In order to achieve the above object, a program according to a first aspect of the present invention relates to a receiving procedure for receiving a performance instruction and a video effect set comprising a plurality of video effects stored in a storage means when a predetermined condition is satisfied. A selection procedure for selecting the one video effect, and a display procedure for causing the display means to display the video effect selected by the selection procedure by changing the display mode of the video effect according to the performance instruction received by the reception procedure. It is for making a computer perform.

ここで「演奏指示」は、「演奏情報」に限らず、後述する図5のステップS7における「発音指示に応じたタッチ操作」も含む広い概念である。   Here, “performance instruction” is not limited to “performance information”, but is a broad concept including “touch operation in response to a sound generation instruction” in step S7 of FIG. 5 described later.

請求項2に記載のプログラムは、請求項1のプログラムにおいて、前記映像効果組から、選択すべき1つの映像効果を指定する指定情報を取得する取得手順をさらにコンピュータに実行させるものであって、前記選択手順では、前記映像効果組から、前記取得手段によって取得された指定情報によって指定される映像効果を選択することを特徴とする。   The program according to claim 2 further causes the computer to execute an acquisition procedure for acquiring designation information for designating one video effect to be selected from the video effect group in the program according to claim 1. In the selection procedure, a video effect designated by the designation information acquired by the acquisition unit is selected from the video effect group.

請求項3に記載のプログラムは、請求項1のプログラムにおいて、前記選択手順では、前記映像効果組からいずれか1つの映像効果を選択するときに、所定の順序に従って選択することを特徴とする。   The program according to claim 3 is characterized in that, in the program according to claim 1, in the selection procedure, when any one video effect is selected from the video effect group, the program is selected according to a predetermined order.

上記目的を達成するため、請求項4に記載の音楽画像表示装置は、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the music image display device according to claim 4 can be realized by the same technical idea as that of claim 1.

請求項1または4に記載の発明によれば、所定の条件が成立したときに、記憶手段に記憶された複数の映像効果からなる映像効果組からいずれか1つの映像効果が選択され、選択された映像効果の表示態様が、受け取られた演奏指示に応じて変動されて、表示手段に表示されるので、つまり、所定の条件は、楽曲の再生あるいは演奏とは独立して成立するので、楽曲を再生あるいは演奏している最中に、複数の映像効果の変化を楽しみたいというユーザの要望や、当該変化をユーザに楽しませたいというメーカやクリエータの要望に応えることができる。また、複数の映像効果からなる映像効果組を予め用意しておき、その組の中で各映像効果を切り替えるようにしたので、ユーザ、メーカおよびクリエータがその組を用意する際の意図、たとえば、楽曲に合うイメージの映像効果あるいは統一感のある映像効果を集めて組とし、その組の中で各映像効果を切り替えて、映像効果の変化を楽しみたいあるいは楽しませたいという意図を的確に反映させることができる。   According to the invention described in claim 1 or 4, when a predetermined condition is satisfied, any one video effect is selected and selected from the video effect group composed of a plurality of video effects stored in the storage means. Since the display mode of the video effect is changed according to the received performance instruction and displayed on the display means, that is, the predetermined condition is established independently of the reproduction or performance of the music. During playback or performance, it is possible to respond to a user's request to enjoy a plurality of changes in the video effect and a manufacturer or creator's request to have the user enjoy the change. In addition, since a video effect set consisting of a plurality of video effects is prepared in advance and each video effect is switched in the set, the intention when the user, manufacturer and creator prepare the set, for example, Collect video effects with an image that matches the music or video effects with a sense of unity into a set, and switch each video effect within the set to accurately reflect the intention to enjoy or enjoy the change in the video effect. be able to.

本発明の一実施の形態に係る音楽画像表示装置を含む音楽システムのシステム構成の一例を示す図である。It is a figure which shows an example of the system configuration | structure of a music system containing the music image display apparatus which concerns on one embodiment of this invention. 図1中のスレートデバイスの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the slate device in FIG. 図2中のメモリに記憶された各種データ間のつながりを説明するための図である。It is a figure for demonstrating the connection between the various data memorize | stored in the memory in FIG. 図2中のタッチパネルに表示される映像効果の一例を示す図である。It is a figure which shows an example of the video effect displayed on the touch panel in FIG. 図2のスレートデバイス、特にCPUが実行する映像効果表示・編集処理の手順を示すフローチャートである。3 is a flowchart showing a procedure of video effect display / editing processing executed by the slate device of FIG. 2, particularly a CPU. 図5中の発音指示に応じた制御処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of the control process according to the sound generation instruction | indication in FIG. 図5中の演奏情報に応じた制御処理の詳細な手順を示すフローチャートである。It is a flowchart which shows the detailed procedure of the control process according to the performance information in FIG. タイマ割込み処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of a timer interruption process.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る音楽画像表示装置を含む音楽システムのシステム構成の一例を示す図である。   FIG. 1 is a diagram showing an example of a system configuration of a music system including a music image display device according to an embodiment of the present invention.

同図に示すように、本実施の形態の音楽画像表示装置は、タッチパネル11を備えた汎用のスレートデバイス(slate device)1(のCPU10)が所定の制御プログラムおよびアプリケーションプログラム(図5を用いて後述する映像効果表示・編集処理のプログラムを含む)を実行することによって実現されている。スレートデバイス1は、アダプタ4を介して直接、電子鍵盤楽器2および外部LCD(liquid crystal display)3と接続されている。   As shown in the figure, in the music image display device of the present embodiment, a general-purpose slate device 1 (CPU 10) having a touch panel 11 is used by a predetermined control program and application program (FIG. 5). This is realized by executing a video effect display / editing program described later. The slate device 1 is directly connected to an electronic keyboard instrument 2 and an external LCD (liquid crystal display) 3 via an adapter 4.

アダプタ4は、スレートデバイス1から入力された演奏情報を電子鍵盤楽器2に出力するとともに、電子鍵盤楽器2から入力された演奏情報をスレートデバイス1に出力する。またアダプタ4は、電子鍵盤楽器2から入力されたオーディオ信号をスレートデバイス1に出力する。さらにアダプタ4は、スレートデバイス1から入力された映像信号を外部LCD3に出力する。演奏情報のフォーマットとして、本実施の形態では説明の都合上、MIDI(musical instrument digital interface)形式のデータを採用している。もちろん、MIDIのフォーマットを採らない他のフォーマット、たとえばOSC(Open Sound Control)などの演奏情報であってもよい。   The adapter 4 outputs the performance information input from the slate device 1 to the electronic keyboard instrument 2 and outputs the performance information input from the electronic keyboard instrument 2 to the slate device 1. The adapter 4 also outputs the audio signal input from the electronic keyboard instrument 2 to the slate device 1. Further, the adapter 4 outputs the video signal input from the slate device 1 to the external LCD 3. In the present embodiment, MIDI (musical instrument digital interface) data is used as the performance information format for convenience of explanation. Of course, other formats that do not adopt the MIDI format, for example, performance information such as OSC (Open Sound Control) may be used.

電子鍵盤楽器2は、図示例では、24鍵からなる鍵盤2aと、自動伴奏の各種セクション(“A”〜“D”)を切替指定する複数(4つ)のセクション指定スイッチ2bと、各種設定を行うための複数(6つ)のスイッチ2cと、各種情報を表示する小型のLCD2dと、楽音を発生するスピーカ2eとを備えている。電子鍵盤楽器2は、自動伴奏機能を備え、この自動伴奏機能により、たとえば内蔵メモリ(図示せず)に記憶された自動伴奏データを再生することで伴奏音をスピーカ2eから発生させ、この伴奏音に従って演奏者(ユーザ)が鍵盤2aを押鍵すると、その押鍵音もスピーカ2eから発生させる。そして電子鍵盤楽器2は、この伴奏音および押鍵音の発生とともに、この伴奏音および押鍵音に対応するMIDIデータ(主としてMIDIチャンネルメッセージであるが、SysExメッセージ(システム・エクスクルーシブ・メッセージ)の場合もある)およびオーディオ信号を生成して出力する。電子鍵盤楽器2から出力されたMIDIデータおよびオーディオ信号は、前述のようにアダプタ4を介してスレートデバイス1に送信される。また、ユーザがセクション指定スイッチ2bのいずれかを押すと、電子鍵盤楽器2は、押されたスイッチに割り当てられているセクション名(“A”〜“D”のいずれか)を含むMIDIデータ(この場合は、SysExメッセージ)を生成して出力する。なお、楽音についての各種パラメータ、たとえば、音色、テンポ、ピッチベンド、モジュレーション、アフタータッチ、フットペダル(サスティンペダル、ソフテヌートペダルおよびソフトペダルなど)の操作状態、フィルタ係数(カットオフ・レゾナンスなど)などの値が変更されたときなどにも、電子鍵盤楽器2は、その変更後の値を知らせるために当該パラメータの種類と値を含むMIDIデータを生成して出力する。   In the illustrated example, the electronic keyboard instrument 2 includes a keyboard 2a composed of 24 keys, a plurality (four) of section specifying switches 2b for switching and specifying various sections ("A" to "D") of automatic accompaniment, and various settings. Are provided with a plurality of (six) switches 2c, a small LCD 2d for displaying various information, and a speaker 2e for generating musical sounds. The electronic keyboard instrument 2 has an automatic accompaniment function, and by using the automatic accompaniment function, for example, accompaniment sound is generated from the speaker 2e by reproducing automatic accompaniment data stored in a built-in memory (not shown). When the performer (user) presses the keyboard 2a according to the above, the key pressing sound is also generated from the speaker 2e. When the electronic keyboard instrument 2 generates the accompaniment sound and the key depression sound, the MIDI data corresponding to the accompaniment sound and the key depression sound (mainly a MIDI channel message, but a SysEx message (system exclusive message)). And audio signals are generated and output. The MIDI data and audio signal output from the electronic keyboard instrument 2 are transmitted to the slate device 1 via the adapter 4 as described above. When the user presses one of the section specifying switches 2b, the electronic keyboard instrument 2 displays MIDI data (this is one of “A” to “D”) assigned to the pressed switch (this data). In this case, a SysEx message is generated and output. Various parameters related to musical tone, such as tone, tempo, pitch bend, modulation, aftertouch, foot pedal (sustain pedal, soft tenuto pedal, soft pedal, etc.) operation status, filter coefficient (cutoff resonance, etc.), etc. Even when the value is changed, the electronic keyboard instrument 2 generates and outputs MIDI data including the type and value of the parameter in order to notify the changed value.

スレートデバイス1は、タッチパネル11上に1種類または複数種類(本実施の形態では、2種類)の映像効果を表示し、その表示態様を、電子鍵盤楽器2からの前記伴奏音および押鍵音に対応するMIDIデータの内容に応じて変動させて表示する。またこのとき、スレートデバイス1は、タッチパネル11に対するユーザのタッチ操作を受け付け、そのタッチ操作に応じた楽音信号を生成して発音するとともに、タッチパネル11上の映像効果の表示態様を当該タッチ操作に応じて変動させて表示するようにも構成されている。さらにスレートデバイス1は、タッチパネル11上に表示される映像効果を外部LCD3にも表示できるように、当該映像効果に対応する映像信号を生成して出力する。外部LCD3は、この映像信号を、アダプタ4を介して入力し、表示する。これにより、スレートデバイス1のタッチパネル11上に表示される映像効果と同様の映像効果が外部LCD3上に表示される。   The slate device 1 displays one type or a plurality of types (two types in the present embodiment) of video effects on the touch panel 11, and displays the accompaniment sound and key depression sound from the electronic keyboard instrument 2. The display is changed according to the contents of the corresponding MIDI data. At this time, the slate device 1 accepts a user's touch operation on the touch panel 11, generates a musical sound signal corresponding to the touch operation and generates a sound, and changes a display mode of the video effect on the touch panel 11 according to the touch operation. It is also configured to be displayed in a variable manner. Further, the slate device 1 generates and outputs a video signal corresponding to the video effect so that the video effect displayed on the touch panel 11 can also be displayed on the external LCD 3. The external LCD 3 inputs this video signal via the adapter 4 and displays it. As a result, a video effect similar to the video effect displayed on the touch panel 11 of the slate device 1 is displayed on the external LCD 3.

なお本実施の形態では、スレートデバイス1と電子鍵盤楽器2および外部LCD3とは、アダプタ4を介して有線で接続されているが、これに限らず、無線で接続されていてもよい。また両者は、アダプタ4を介して直接1対1で接続される態様ではなく、LAN(local area network)やインターネット、電話回線等のネットワーク5を経由して接続される態様であってもよい。   In the present embodiment, the slate device 1, the electronic keyboard instrument 2, and the external LCD 3 are connected by wire via the adapter 4, but the present invention is not limited to this, and may be connected wirelessly. Moreover, both may be connected via a network 5 such as a local area network (LAN), the Internet, or a telephone line, instead of being directly connected one-to-one via the adapter 4.

また本実施の形態では、スレートデバイス1に電子鍵盤楽器2を外部接続し、伴奏音の生成と押鍵音(演奏音)の生成を電子鍵盤楽器2に任せるようにしたが、これに限らず、電子鍵盤楽器2の当該機能をソフトウェアによってスレートデバイス1内に実現させ、スレートデバイス1が電子鍵盤楽器2と協働して行う機能を、スレートデバイス1単独で行うようにしてもよい。   In the present embodiment, the electronic keyboard instrument 2 is externally connected to the slate device 1, and the generation of the accompaniment sound and the generation of the key-pressing sound (performance sound) are left to the electronic keyboard instrument 2. However, the present invention is not limited to this. The function of the electronic keyboard instrument 2 may be realized in the slate device 1 by software, and the function performed by the slate device 1 in cooperation with the electronic keyboard instrument 2 may be performed by the slate device 1 alone.

図2は、スレートデバイス1の概略構成を示すブロック図である。   FIG. 2 is a block diagram showing a schematic configuration of the slate device 1.

同図に示すように、スレートデバイス1は、デバイス全体の制御を司るCPU(central processing unit)10を備えている。CPU10には、タッチパネル11、操作子12、各種センサ13,メモリ14、タイマ15、アダプタインターフェース(I/F)16、通信インターフェース(I/F)17およびサウンドシステム18が接続されている。   As shown in the figure, the slate device 1 includes a CPU (central processing unit) 10 that controls the entire device. A touch panel 11, an operator 12, various sensors 13, a memory 14, a timer 15, an adapter interface (I / F) 16, a communication interface (I / F) 17, and a sound system 18 are connected to the CPU 10.

操作子12は、タッチパネル11上に表示されるソフトウェアボタンではなく、ハードウェアスイッチである。その典型例としては、電源スイッチ12a(図1参照)やリセットスイッチ(図示せず)などを挙げることができる。   The operation element 12 is not a software button displayed on the touch panel 11 but a hardware switch. Typical examples thereof include a power switch 12a (see FIG. 1) and a reset switch (not shown).

各種センサ13には、マイクロフォン、地磁気センサ、GPS(Global Positioning System)、重力加速度も検出可能な加速度センサ、超音波センサ、カメラ、赤外線または可視光を検出する光センサなどが含まれる。   The various sensors 13 include a microphone, a geomagnetic sensor, a GPS (Global Positioning System), an acceleration sensor that can detect gravitational acceleration, an ultrasonic sensor, a camera, an optical sensor that detects infrared light or visible light, and the like.

メモリ14には、CPU10によって実行される制御プログラムや各種アプリケーションプログラム、各プログラムによって画面表示に利用される画像データや発音に利用される音声データを含む各種データ等を記憶するROM(read only memory)と、上記画像データや音声データを含む各種データ、各種入力情報および演算結果等を一時的に記憶するRAM(random access memory)が含まれている。上記制御プログラムや各種アプリケーションプログラム、各種データ等は、本実施の形態では適宜、追加、削除あるいはアップデートできるようにするために、ROMとして、書き換え可能な不揮発性のもの、具体的にはフラッシュメモリを採用している。   The memory 14 is a ROM (read only memory) that stores a control program executed by the CPU 10 and various application programs, various data including image data used for screen display by each program and sound data used for sound generation, and the like. And RAM (random access memory) for temporarily storing various data including the image data and audio data, various input information, calculation results, and the like. In the present embodiment, the above control program, various application programs, various data, and the like are appropriately rewritable and non-volatile as ROM in order to be able to be added, deleted or updated as appropriate. Adopted.

タイマ15は、図8を用いて後述するタイマ割込み処理における割込み時間や各種時間を計時する。   The timer 15 measures an interrupt time and various times in a timer interrupt process to be described later with reference to FIG.

アダプタI/F16は、スレートデバイス1にアダプタ4を接続させ、アダプタ4に接続された外部機器との間で各種データの送受信を行う。   The adapter I / F 16 connects the adapter 4 to the slate device 1 and transmits / receives various data to / from an external device connected to the adapter 4.

通信I/F17は、スレートデバイス1を前記ネットワーク5(図1参照)に接続させ、ネットワーク5に接続された他の機器との間で各種データの送受信を行う。他の機器として、サーバコンピュータ(図示せず)が接続された場合、上記プログラム等の追加、削除あるいはアップデートは、サーバコンピュータを介して行うようにしてもよい。この場合、通信I/F17は、サーバコンピュータから各種プログラムや各種データをダウンロードするために用いられる。クライアントとなるスレートデバイス1は、通信I/F17およびネットワーク5を介してサーバコンピュータへとプログラムやデータのダウンロードを要求するコマンドを送信する。サーバコンピュータは、このコマンドを受け、要求されたプログラムやデータを、ネットワーク5を介してスレートデバイス1へと配信し、スレートデバイス1が通信I/F17を介して、これらプログラムやデータを受信してフラッシュメモリに蓄積することにより、ダウンロードが完了する。   The communication I / F 17 connects the slate device 1 to the network 5 (see FIG. 1) and transmits / receives various data to / from other devices connected to the network 5. When a server computer (not shown) is connected as another device, addition, deletion, or updating of the above-described program or the like may be performed via the server computer. In this case, the communication I / F 17 is used to download various programs and various data from the server computer. The slate device 1 serving as a client transmits a command requesting download of a program or data to the server computer via the communication I / F 17 and the network 5. Upon receiving this command, the server computer distributes the requested program and data to the slate device 1 via the network 5, and the slate device 1 receives the program and data via the communication I / F 17. Downloading is completed by accumulating in the flash memory.

サウンドシステム18は、たとえば、DAC(digital-to-analog converter)やアンプ、スピーカ等によって構成される。サウンドシステム18は、CPU10が前記制御プログラムや各種アプリケーションプログラムを実行しているときに生成した楽音信号を音響に変換する。楽音信号は、本実施の形態では、CPU10が音源プログラムを実行することによって生成する、いわゆるソフトウェア音源によって生成する。もちろん、ソフトウェア音源を用いて楽音信号を生成する態様に限らず、ハードウェア音源を用いてもよいし、一部をハードウェアで構成し、残りをソフトウェアで構成した音源を用いてもよい。   The sound system 18 includes, for example, a DAC (digital-to-analog converter), an amplifier, a speaker, and the like. The sound system 18 converts a musical sound signal generated when the CPU 10 is executing the control program and various application programs into sound. In the present embodiment, the musical tone signal is generated by a so-called software sound source that is generated by the CPU 10 executing a sound source program. Of course, the present invention is not limited to a mode in which a musical sound signal is generated using a software sound source, and a hardware sound source may be used, or a sound source in which a part is configured by hardware and the rest is configured by software may be used.

なお本実施の形態では、音楽画像表示装置としてスレートデバイス1を採用したが、これに限らず、ポインティングデバイス(マウスなど)とディスプレイ装置からなる通常のPC(パーソナルコンピュータ)を採用してもよい。また、汎用的な装置に限らず、本発明を実施できる最小限要素のみから構成した専用装置上に本発明を構築してもよい。   In this embodiment, the slate device 1 is adopted as the music image display device. However, the present invention is not limited to this, and a normal PC (personal computer) including a pointing device (such as a mouse) and a display device may be adopted. In addition, the present invention is not limited to a general-purpose device, and the present invention may be constructed on a dedicated device that includes only minimum elements that can implement the present invention.

図3は、メモリ14に記憶された各種データ間のつながりを説明するための図である。   FIG. 3 is a diagram for explaining the connection between various data stored in the memory 14.

同図に示すように、メモリ14のフラッシュメモリには、タッチパネル11上に表示される映像効果の基礎となる単体の映像効果データSEm(m=1,2,3,…)が多数記憶されている。各単体の映像効果データSEmは、たとえば、CPU10によって実行される実行コードと、実行コードが実行される際に利用される画像部品を表すデータとによって構成されている。この単体の映像効果データSEmは、一般的には、前記サーバコンピュータからダウンロードされてフラッシュメモリに記憶されるが、一部は、スレートデバイス1が工場から出荷されるときに予めフラッシュメモリに記憶しておくようにし、それ以外は、ユーザが必要に応じて、サーバコンピュータからダウンロードして追加するようにしてもよい。   As shown in the figure, the flash memory of the memory 14 stores a large number of single image effect data SEm (m = 1, 2, 3,...) That is the basis of the image effect displayed on the touch panel 11. Yes. Each piece of the video effect data SEm is composed of, for example, an execution code executed by the CPU 10 and data representing an image component used when the execution code is executed. This single video effect data SEm is generally downloaded from the server computer and stored in the flash memory, but a part of the video effect data SEm is stored in the flash memory in advance when the slate device 1 is shipped from the factory. Otherwise, the user may download and add from the server computer as necessary.

図4は、単体の映像効果データSEmに基づいてタッチパネル11上に表示した映像効果の一例を示す図である。同図(a)〜(d)がそれぞれ、図3の映像効果データSE1〜SE4に対応するものとする。   FIG. 4 is a diagram illustrating an example of a video effect displayed on the touch panel 11 based on the single video effect data SEm. FIGS. 9A to 9D correspond to the video effect data SE1 to SE4 in FIG.

図3に戻り、フラッシュメモリには、複数(本実施の形態では、4つ)の映像効果を1組とする映像効果組#n(n=1,2,3,…)も多数記憶されている。各映像効果組#nは、セクションA〜Dのそれぞれに対応付けられた4つのポインタによって構成されている。各ポインタは、映像効果を指し示すものであるが、ポインタによっては、単体の映像効果データSEmではなく、ポインタ組を指し示すものもある。このポインタ組は、ミキシングされる映像効果MEk(k=1,2,3,…)である。   Returning to FIG. 3, the flash memory also stores a large number of video effect groups #n (n = 1, 2, 3,...) Each having a plurality of video effects (four in this embodiment). Yes. Each video effect group #n is composed of four pointers associated with sections A to D, respectively. Each pointer points to a video effect, but some pointers point to a set of pointers instead of the single video effect data SEm. This set of pointers is a mixed video effect MEk (k = 1, 2, 3,...).

映像効果組#nおよび映像効果MEkは、単体の映像効果データSEmと同様に、サーバコンピュータからダウンロードしてフラッシュメモリに記憶するようにしてもよいし、一部は工場出荷時に予め記憶され、その後、必要に応じて、サーバコンピュータからダウンロードして追加するようにしてもよい。また、映像効果組#nおよび映像効果MEkは、図5を用いて後述する編集モードが選択されたときに、ユーザの編集操作に応じて作成または変更し、フラッシュメモリに保存することもできる。   The video effect group #n and the video effect MEk may be downloaded from the server computer and stored in the flash memory in the same manner as the single video effect data SEm, or some of them are stored in advance at the time of shipment from the factory. If necessary, it may be downloaded from a server computer and added. Also, the video effect group #n and the video effect MEk can be created or changed according to the user's editing operation and stored in the flash memory when an editing mode described later with reference to FIG. 5 is selected.

ユーザがフラッシュメモリに記憶された映像効果組#nの中から、いずれか1つの映像効果組を選択すると、選択された映像効果組、つまり現映像効果組を指し示すポインタ(以下「現映像効果組へのポインタ」という)が、フラッシュメモリから読み出されて、メモリ14の前記RAMのワークエリアに記憶される。図示例では、映像効果組#1が選択され、映像効果組#1へのポインタが、現映像効果組へのポインタとしてRAMに記憶されている。   When the user selects any one of the video effect groups #n stored in the flash memory, a pointer indicating the selected video effect group, that is, the current video effect group (hereinafter, “current video effect group”). Is read from the flash memory and stored in the work area of the RAM of the memory 14. In the illustrated example, the video effect group # 1 is selected, and a pointer to the video effect group # 1 is stored in the RAM as a pointer to the current video effect group.

いずれか1つの映像効果組#nが選択され、現映像効果組へのポインタがRAMに記憶されているときには、現映像効果組に属する4つの映像効果(へのポインタ)のうちのいずれか1つが常に選択されている。現映像効果組へのポインタがRAMに記憶されていない状態から記憶されたり、他の映像効果組#nが選択されて、現映像効果組へのポインタが変更されたりしたときに、現映像効果組に属する4つの映像効果(へのポインタ)のうち、どの1つが選択されるかであるが、デフォルトで決まっていてもよいし、ユーザの指示を待ってその指示されたものが選択されるようにしてもよい。この選択された映像効果を指し示すポインタを、以下「現映像効果へのポインタ」という。図示例では、現映像効果へのポインタは、現映像効果組へのポインタに属する4つの映像効果へのポインタのうち、セクションBに対応付けられたものが選択されている。   When any one video effect group #n is selected and a pointer to the current video effect group is stored in the RAM, any one of the four video effects (pointer to) belonging to the current video effect group is stored. One is always selected. When the pointer to the current video effect group is stored from a state that is not stored in the RAM, or when another video effect group #n is selected and the pointer to the current video effect group is changed, the current video effect group is changed. Which one of the four video effects belonging to the set (pointer to) is selected, may be determined by default, or the designated one is selected after waiting for the user's instruction. You may do it. The pointer indicating the selected video effect is hereinafter referred to as “pointer to the current video effect”. In the illustrated example, as the pointer to the current video effect, the pointer corresponding to section B is selected from the four video effect pointers belonging to the pointer to the current video effect group.

このように図示例では、フラッシュメモリに記憶された映像効果組#nのうち、映像効果組#1が選択され、さらに映像効果組#1からセクションBに対応付けられた映像効果が選択されている。この選択により、現映像効果へのポインタと現映像効果組へのポインタがRAMに記憶される。   Thus, in the illustrated example, the video effect group # 1 is selected from the video effect groups #n stored in the flash memory, and the video effect associated with the section B is further selected from the video effect group # 1. Yes. By this selection, a pointer to the current video effect and a pointer to the current video effect group are stored in the RAM.

メモリ14内のこの記憶状態で、ユーザがタッチパネル11上への映像効果の表示を指示すると、現映像効果へのポインタは、ミキシングされる映像効果ME1を指し示しているので、この映像効果ME1を構成する2つのポインタ、つまり第1パート(たとえば、メロディパート)および第2パート(たとえば、伴奏パート)にそれぞれ対応付けられた映像効果へのポインタが指し示す単体の映像効果データSE2およびSE4がフラッシュメモリから読み出される。読み出された映像効果データSE2およびSE4は、RAMのワークエリアに記憶される。そして、この映像効果データSE2およびSE4にそれぞれ含まれる前記実行コードがCPU10によって実行され、第1パートおよび第2パートそれぞれのパートの映像効果を表示するための各画像データが生成される。生成された第1パートの画像データは、RAMのワークエリアに設けられた領域(以下「第1パートの表示レイヤ」という)に記憶され、生成された第2パートの画像データは、同ワークエリアに設けられた領域(以下「第2パートの表示レイヤ」という)に記憶される。   When the user instructs display of the video effect on the touch panel 11 in this storage state in the memory 14, the pointer to the current video effect indicates the video effect ME1 to be mixed. The single video effect data SE2 and SE4 indicated by the pointers to the video effects respectively associated with the first part (for example, melody part) and the second part (for example, accompaniment part) are stored in the flash memory. Read out. The read video effect data SE2 and SE4 are stored in the work area of the RAM. Then, the execution code included in each of the video effect data SE2 and SE4 is executed by the CPU 10, and each image data for displaying the video effects of the first part and the second part is generated. The generated image data of the first part is stored in an area (hereinafter referred to as “display layer of the first part”) provided in the work area of the RAM, and the generated image data of the second part is stored in the work area. Is stored in an area (hereinafter referred to as “second part display layer”).

なお現映像効果へのポインタは、前述のように、1つの単体の映像効果データSEkを指し示す場合もある。図示例では、映像効果組#1のセクションAに対応付けられた映像効果がこの場合に該当する。この場合に、ユーザがタッチパネル11上への映像効果の表示を指示すると、単体の映像効果データSE2がフラッシュメモリから読み出されて、RAMのワークエリアに記憶される。そして、この映像効果データSE2に含まれる実行コードがCPU10によって実行されて、第1パートの画像データが生成され、上記第1パートの表示レイヤに記憶される。   Note that the pointer to the current video effect may point to one single video effect data SEk as described above. In the illustrated example, the video effect associated with the section A of the video effect group # 1 corresponds to this case. In this case, when the user instructs display of the video effect on the touch panel 11, the single video effect data SE2 is read from the flash memory and stored in the work area of the RAM. Then, the execution code included in the video effect data SE2 is executed by the CPU 10, and the image data of the first part is generated and stored in the display layer of the first part.

単体の映像効果データSE2は、映像効果組#1のセクションAおよびセクションBにそれぞれ対応付けられた2つの映像効果へのポインタによって指し示されている。つまり、単体の映像効果データSEkによっては、複数のポインタによって重複して指し示されることもある。   The single video effect data SE2 is indicated by pointers to two video effects respectively associated with the sections A and B of the video effect group # 1. In other words, depending on the single video effect data SEk, there are cases where a plurality of pointers indicate the same.

以上のように構成されたスレートデバイス1が実行する制御処理を、まず図3および図4を参照してその概要を説明し、次に図5〜図8を参照して詳細に説明する。   The control process executed by the slate device 1 configured as described above will be described first with reference to FIGS. 3 and 4 and then in detail with reference to FIGS.

前記図3のメモリ14内の記憶状態で、ユーザが図5を用いて後述する映像効果表示・編集処理を開始する指示を行うと、第1パートの表示レイヤと第2パートの表示レイヤとが、現在のミキシング設定に従って演算されてミキシングされ、その演算結果であるミキシング結果がタッチパネル11上に表示される。具体的には、図4(b)の映像効果と図4(d)の映像効果とが重ね合わされて、タッチパネル11上に表示される。ただし、図4の映像効果例は、その表示態様が変動中の映像効果を示しているので、映像効果表示・編集処理が開始された直後に、タッチパネル11上に表示される映像効果とは若干異なっている。   When the user gives an instruction to start a video effect display / editing process (to be described later with reference to FIG. 5) in the storage state in the memory 14 of FIG. 3, the display layer of the first part and the display layer of the second part are displayed. The calculation is performed according to the current mixing setting, and the mixing result is displayed on the touch panel 11. Specifically, the video effect in FIG. 4B and the video effect in FIG. 4D are superimposed and displayed on the touch panel 11. However, since the video effect example in FIG. 4 shows a video effect whose display mode is changing, the video effect displayed on the touch panel 11 immediately after the video effect display / editing process is started is slightly different. Is different.

このタッチパネル11の表示状態で、電子鍵盤楽器2からMIDIデータが供給されたり、ユーザがタッチパネル11に対して発音のためのタッチ操作をしたりすると、それに応じて、タッチパネル11上の映像効果の表示態様が変動されて表示される。   When MIDI data is supplied from the electronic keyboard instrument 2 in the display state of the touch panel 11 or when the user performs a touch operation for sound generation on the touch panel 11, display of the video effect on the touch panel 11 is performed accordingly. The aspect is changed and displayed.

次にユーザが、セクション指定スイッチ2bのうち、たとえばセクションAを指定するスイッチを押すと、当該スイッチに割り当てられたセクションの名称、つまり「セクションA」を含むSysExメッセージが生成され、電子鍵盤楽器2からスレートデバイス1に送信される。スレートデバイス1は、現映像効果へのポインタを、現映像効果組へのポインタ内のセクションAに対応付けられたポインタに変更し、前述のように、そのポインタが指し示す単体の映像効果データSE2をフラッシュメモリから読み出して、RAMのワークエリアに記憶する。そしてスレートデバイス1は、映像効果データSE2に含まれる実行コードを実行し、第1パートの映像効果を表示するための画像データを生成して、第1パートの表示レイヤに記憶する。これ以降は、タッチパネル11上の映像効果は、第1パートの表示レイヤに記憶された画像データのみに基づいて表示されるので、図4(d)に対応する映像効果は表示されなくなる。   Next, when the user presses, for example, a switch that designates section A among the section designation switches 2b, a SysEx message including the name of the section assigned to the switch, that is, “section A” is generated, and the electronic keyboard instrument 2 is generated. To the slate device 1. The slate device 1 changes the pointer to the current video effect to the pointer associated with the section A in the pointer to the current video effect group, and, as described above, the single video effect data SE2 pointed to by the pointer is changed. Read from the flash memory and store in the RAM work area. The slate device 1 executes the execution code included in the video effect data SE2, generates image data for displaying the video effect of the first part, and stores it in the display layer of the first part. Thereafter, the video effect on the touch panel 11 is displayed based only on the image data stored in the display layer of the first part, so that the video effect corresponding to FIG. 4D is not displayed.

さらにユーザが、他のセクション指定スイッチを押すと、当該セクション指定スイッチに割り当てられているセクションに対応付けられたポインタを介して、対応する1つまたは2つの単体の映像効果データSEkが読み出され、それに基づいて映像効果が切り替えられて、タッチパネル11上に表示される。   Further, when the user presses another section designation switch, the corresponding one or two single image effect data SEk is read out via the pointer associated with the section assigned to the section designation switch. Based on this, the video effect is switched and displayed on the touch panel 11.

なお、現映像効果組内での現映像効果の切替選択方法は、上述のように、ユーザがセクション指定スイッチ2bのいずれかを押すことによって特定の1つに切替選択する方法に限らず、所定の時間が経過する毎に、所定の順序で切替選択する方法や、電子鍵盤楽器2から送信されて来るMIDIデータの内容に応じて切替選択する方法等があるが、その詳細は、制御処理の詳細で後述するので、ここではこれ以上説明しない。   Note that the selection method for switching the current video effect within the current video effect group is not limited to the method in which the user switches to a specific one by pressing any one of the section designation switches 2b as described above. There are a method of switching selection in a predetermined order every time elapses of time, a method of switching selection according to the contents of MIDI data transmitted from the electronic keyboard instrument 2, etc. Since it will be described in detail later, it will not be further described here.

このように本実施の形態では、楽曲を再生あるいは演奏している最中に、複数の映像効果の中から、所定の事象の発生をトリガとしていずれかの映像効果が選択されて切り替えられるので、複数の映像効果の変化を楽しみたいというユーザの要望や、当該変化をユーザに楽しませたいというメーカやクリエータの要望に応えることができる。また、複数の映像効果からなる映像効果組を予め用意しておき、その組の中で各映像効果を切り替えるようにしたので、ユーザ、メーカおよびクリエータがその組を用意する際の意図、たとえば、楽曲に合うイメージの映像効果あるいは統一感のある映像効果を集めて組とし、その組の中で各映像効果を切り替えて、映像効果の変化を楽しみたいあるいは楽しませたいという意図を的確に反映させることができる。   As described above, in the present embodiment, during playback or performance of a song, one of the video effects is selected and switched from among a plurality of video effects as a trigger, It is possible to meet a user's request to enjoy a plurality of changes in the video effect and a manufacturer or creator's request to make the user enjoy the change. In addition, since a video effect set consisting of a plurality of video effects is prepared in advance and each video effect is switched in the set, the intention when the user, manufacturer and creator prepare the set, for example, Collect video effects with an image that matches the music or video effects with a sense of unity into a set, and switch each video effect within the set to accurately reflect the intention to enjoy or enjoy the change in the video effect. be able to.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図5は、スレートデバイス1、特にCPU10が実行する映像効果表示・編集処理の手順を示すフローチャートである。   FIG. 5 is a flowchart showing the procedure of the video effect display / editing process executed by the slate device 1, particularly the CPU 10.

本映像効果表示・編集処理は、フラッシュメモリに記憶されているアプリケーションプログラムの1つであり、ユーザが、たとえば、タッチパネル11上に表示されたメニュー画像(後述する図8のステップS44参照)内の対応するメニューをタッチ操作することにより、起動される。   This video effect display / editing process is one of the application programs stored in the flash memory, and the user can, for example, in a menu image displayed on the touch panel 11 (see step S44 in FIG. 8 described later). It is activated by touching the corresponding menu.

本映像効果表示・編集処理が起動されると、まずCPU10は、初期設定を行う(ステップS1)。初期設定では、主として
(1)RAMのワークエリアをクリア;
(2)現映像効果組へのポインタおよび現映像効果へのポインタをRAMに記憶;
(3)上記(2)の処理によって記憶された現映像効果へのポインタによって指し示される1つあるいは2つの単体の映像効果データSEmをフラッシュメモリから読み出してRAMに記憶し、記憶した映像効果データSEmに基づいて画像データを生成し、生成した画像データを表示レイヤに記憶;
(4)ミキシング設定、演奏情報とパートとの対応付け、および更新条件をRAMに記憶;
の各処理がなされる。
When the video effect display / editing process is activated, the CPU 10 first performs an initial setting (step S1). Initial settings are mainly (1) clearing the RAM work area;
(2) storing a pointer to the current video effect group and a pointer to the current video effect in the RAM;
(3) One or two single video effect data SEm indicated by the pointer to the current video effect stored by the processing of (2) above is read from the flash memory, stored in the RAM, and the stored video effect data Generating image data based on SEm and storing the generated image data in the display layer;
(4) Mixing settings, association of performance information and parts, and update conditions are stored in RAM;
Each process is performed.

後述するように、本映像効果表示・編集処理が終了するときに実行される終了処理(ステップS16)により、現映像効果組へのポインタおよび現映像効果へのポインタは、フラッシュメモリの所定領域に保存されるので、上記(2)の処理では、CPU10は、その所定領域に保存された現映像効果組へのポインタおよび現映像効果へのポインタを読み出して、RAMに記憶する。ただし、本映像効果表示・編集処理が一度も起動されていない状態から初めて起動されたり、上記終了処理において現映像効果組へのポインタおよび現映像効果へのポインタが保存されなかったりした場合には、そもそも読み出すべき現映像効果組へのポインタおよび現映像効果へのポインタが存在しないので、その場合には、デフォルトの映像効果組およびその組の中のデフォルトのセクションに対応付けられた映像効果へのポインタを読み出して、現映像効果組へのポインタおよび現映像効果へのポインタとしてRAMに記憶するようにすればよい。   As will be described later, the end process (step S16) executed when the present video effect display / editing process ends, the pointer to the current video effect group and the pointer to the current video effect are placed in a predetermined area of the flash memory. In the process (2), the CPU 10 reads the pointer to the current video effect group and the pointer to the current video effect stored in the predetermined area and stores them in the RAM. However, if this video effect display / editing process is started for the first time from a state where it has never been started, or the pointer to the current video effect group and the pointer to the current video effect are not saved in the above end processing Since there is no pointer to the current video effect group to be read out and no pointer to the current video effect in the first place, in that case, to the video effect associated with the default video effect group and the default section in the group. May be read out and stored in the RAM as a pointer to the current video effect group and a pointer to the current video effect.

上記(3)の処理における「表示レイヤ」には、本実施の形態では前述のように、第1パートの表示レイヤと第2パートの表示レイヤの2種類がある。そして、映像効果組#nを構成するセクション毎の映像効果へのポインタは、前述のように、単体の映像効果データSEmを差し示すものと、ミキシングされる映像効果MEkを差し示すものの2種類がある。前者のポインタは、1つの単体の映像効果データSEmしか指し示さないので、この場合の「表示レイヤ」は、第1パートの表示レイヤまたは第2パートの表示レイヤのいずれか一方、本実施の形態では、第1パートの表示レイヤを意味する。したがって、当該1つの単体の映像効果データSEmに基づいて生成した画像データは、第1パートの表示レイヤに記憶される。一方、後者のポインタは、ミキシングされる映像効果MEkを介して2つの単体の映像効果データSEmを指し示すので、この場合の「表示レイヤ」は、第1パートの表示レイヤおよび第2パートの表示レイヤの両方を意味する。したがって、ミキシングされる映像効果MEkを構成する2つのポインタのうち、第1パートに対応付けられたポインタが指し示す1つの単体の映像効果データSEmに基づいて生成した画像データは、第1パートの表示レイヤに記憶され、第2パートに対応付けられたポインタが指し示す1つの単体の映像効果データSEmに基づいて生成した画像データは、第2パートの表示レイヤに記憶される。   In the present embodiment, there are two types of “display layers” in the process (3) as described above: the first part display layer and the second part display layer. As described above, there are two types of pointers to the video effect for each section constituting the video effect group #n, indicating the single video effect data SEm and indicating the video effect MEk to be mixed. is there. Since the former pointer indicates only one piece of video effect data SEm, the “display layer” in this case is either the display layer of the first part or the display layer of the second part. Then, it means the display layer of the first part. Therefore, the image data generated based on the single video effect data SEm is stored in the display layer of the first part. On the other hand, the latter pointer points to two single image effect data SEm via the mixed video effect MEk. In this case, the “display layer” is the first part display layer and the second part display layer. Means both. Accordingly, the image data generated based on one single video effect data SEm indicated by the pointer associated with the first part among the two pointers constituting the video effect MEk to be mixed is displayed in the first part. Image data generated based on a single piece of video effect data SEm stored in the layer and pointed to by the pointer associated with the second part is stored in the display layer of the second part.

上記(4)の処理における「ミキシング設定」は、前述のように、第1パートの表示レイヤと第2パートの表示レイヤを重ね合わせる際の演算に使用するものである。このミキシング設定の具体例としては、重ね方(第1パートの表示レイヤと第2パートの表示レイヤのどちらを上にするか)、上に重ねられる表示レイヤの透過率、演算方法(AND,OR,XORなど)などを挙げることができる。   As described above, the “mixing setting” in the process (4) is used for calculation when the display layer of the first part and the display layer of the second part are overlapped. Specific examples of the mixing setting include how to overlap (whether the display layer of the first part or the display layer of the second part is on top), the transmittance of the display layer to be overlaid, and the calculation method (AND, OR). , XOR, etc.).

上記(4)の処理における「演奏情報とパートとの対応付け」は、後述する図7のステップS31の「MIDIチャンネルからパートに振り分け」処理で参照されるテーブルデータ(以下「演奏情報・パート対応テーブル」という)であり、第1パートおよび第2パートのそれぞれに対してMIDIチャンネルを重複なく対応付けたものである。ただし、すべてのMIDIチャンネルが常に、第1パートまたは第2パートのいずれかに対応付けられる必要はなく、いずれのパートにも対応付けられないMIDIチャンネルがあってもよい。   The “association of performance information and part” in the process (4) is the table data (hereinafter referred to as “performance information / part correspondence”) referred to in the “assignment from MIDI channel to part” process in step S31 of FIG. Table ") and MIDI channels are associated with each of the first part and the second part without duplication. However, all the MIDI channels do not always need to be associated with either the first part or the second part, and there may be a MIDI channel that is not associated with any part.

上記(4)の処理における「更新条件」は、現映像効果を現映像効果組の中の別の映像効果に変更する処理(後述するステップS6参照)をCPU10に実行させる条件である。なお、更新条件の内容については後述するので、ここではこれ以上説明しない。   The “update condition” in the process (4) is a condition for causing the CPU 10 to execute a process of changing the current video effect to another video effect in the current video effect group (see step S6 described later). The contents of the update condition will be described later and will not be described here any further.

上記「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」はいずれも、上記(2)の処理における2つのポインタと同様に、終了処理によってフラッシュメモリの所定領域に保存されるので、上記(4)の処理では、CPU10は、その所定領域に保存された「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」を読み出して、RAMに記憶する。なお、「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」が保存されていないときには、デフォルトの「ミキシング設定」、「演奏情報・パート対応テーブル」および「更新条件」をRAMに記憶するようにすればよい。   Since the “mixing setting”, the “performance information / part correspondence table”, and the “update condition” are all stored in a predetermined area of the flash memory by the end process, like the two pointers in the process (2). In the process (4), the CPU 10 reads out “mixing settings”, “performance information / part correspondence table” and “update conditions” stored in the predetermined area and stores them in the RAM. When “mixing setting”, “performance information / part correspondence table” and “update condition” are not saved, the default “mixing setting”, “performance information / part correspondence table” and “update condition” are stored in the RAM. Just remember.

次に、ユーザが演奏情報とパートとの対応付け、つまり上記「演奏情報・パート対応テーブル」の内容を変更する操作を行ったときには、CPU10は、その操作に応じた内容に演奏情報・パート対応テーブルを変更する(ステップS2)。この変更操作の典型例は、MIDIチャンネルを指定して、変更対象のパートに追加や削除を行う操作であるが、変更可能な演奏情報・パート対応テーブルの候補がいくつか用意されており、ユーザがその中からいずれかを選択指定すると、選択指定されたテーブルが前のものと置き換わるようにしてもよい。   Next, when the user performs an operation of associating the performance information with the part, that is, changing the content of the “performance information / part correspondence table”, the CPU 10 performs the performance information / part correspondence in accordance with the operation. The table is changed (step S2). A typical example of this change operation is an operation for specifying a MIDI channel and adding or deleting a part to be changed. However, there are several performance information / part correspondence table candidates that can be changed, If any one of them is selected and specified, the selected and specified table may be replaced with the previous one.

また、ユーザがミキシング設定の内容を変更する操作を行ったときには、CPU10は、その操作に応じた内容にミキシング設定を変更する(ステップS3)。この変更操作は、上記ステップS2での変更操作と、変更対象が異なるだけで、操作方法は同様にすればよいので、これ以上説明しない。   When the user performs an operation for changing the content of the mixing setting, the CPU 10 changes the mixing setting to the content corresponding to the operation (step S3). This change operation is different from the change operation in step S2 described above except that the change target is different, and the operation method may be the same, and will not be described further.

さらに、ユーザが更新条件を変更する操作を行ったときには、CPU10は、その操作に応じた条件に更新条件を変更する(ステップS4)。この変更操作の典型例は、変更可能な更新条件の候補がいくつか(本実施の形態では、後述する2種類)用意されており、ユーザがその中からいずれかを選択指定する操作であるが、更新条件を変更できれば、この操作方法に限らない。   Further, when the user performs an operation for changing the update condition, the CPU 10 changes the update condition to a condition corresponding to the operation (step S4). A typical example of this change operation is an operation in which several candidate update conditions that can be changed (in this embodiment, two types described later) are prepared, and the user selects and specifies one of them. If the update condition can be changed, the operation method is not limited to this.

次にCPU10は、更新条件に合致したかどうかを判定し(ステップS5)、更新条件に合致したときには、現映像効果を現映像効果組内の別の映像効果に変更した(ステップS6)後、ステップS7に進む。ここで、更新条件と映像効果の変更方法には、本実施の形態では、
(C1)セクション変更指示の受信:変更が指示されたセクションに対応付けられたポインタが指し示す映像効果に変更;
(C2)所定時間の経過:所定の順序で、次の映像効果に変更;
の2種類があり、ユーザは、そのいずれかを選択できるように構成されている(前記ステップS4参照)。
Next, the CPU 10 determines whether or not the update condition is met (step S5). When the update condition is met, the current video effect is changed to another video effect in the current video effect group (step S6). Proceed to step S7. Here, in the present embodiment, the update condition and the method for changing the video effect are as follows:
(C1) Reception of section change instruction: Change to the video effect indicated by the pointer associated with the section instructed to change;
(C2) elapse of a predetermined time: change to the next video effect in a predetermined order;
There are two types, and the user can select either one (see step S4).

上記(C1)の更新条件における「セクション変更指示」は、前述のように、SysExメッセージ内にセクションA〜Dのいずれかを埋め込んだものを電子鍵盤楽器2がスレートデバイス1に送信することによって行われる。したがって、上記(C1)の更新条件が選択された場合には、CPU10は、入力されたMIDIデータがSysExメッセージであるかどうか、SysExメッセージであれば、その中にセクションA〜Dのいずれかが埋め込まれているかどうかを判定することにより、更新条件に合致したかどうかを判定する。この判定の結果、更新条件に合致していれば、つまり、SysExメッセージにセクションA〜Dのいずれかが埋め込まれていれば、CPU10は、現映像効果へのポインタを、現映像効果組へのポインタ中、埋め込まれているセクションに対応付けられた映像効果へのポインタに変更する。そしてCPU10は、変更後の現映像効果へのポインタによって指し示される1つまたは2つの単体の映像効果データSEmをフラッシュメモリから読み出してRAMに記憶し、記憶した映像効果データSEmに基づいて画像データを生成し、生成した画像データを対応する表示レイヤに記憶させる。   The “section change instruction” in the update condition (C1) is performed when the electronic keyboard instrument 2 transmits to the slate device 1 the one in which any of the sections A to D is embedded in the SysEx message as described above. Is called. Therefore, when the update condition (C1) is selected, the CPU 10 determines whether the input MIDI data is a SysEx message, and if it is a SysEx message, any of the sections A to D is included therein. By determining whether it is embedded or not, it is determined whether the update condition is met. As a result of this determination, if the update condition is met, that is, if any of the sections A to D is embedded in the SysEx message, the CPU 10 sets a pointer to the current video effect to the current video effect group. The pointer is changed to a pointer to the video effect associated with the embedded section. Then, the CPU 10 reads out one or two single video effect data SEm indicated by the pointer to the current video effect after the change from the flash memory and stores it in the RAM, and the image data based on the stored video effect data SEm. And the generated image data is stored in the corresponding display layer.

また上記(C2)の更新条件における「所定時間」は、前記タイマ15によって計時される。したがって、上記(C2)の更新条件が選択された場合には、CPU10は、タイマ15に「所定時間」の計時を行わせる。「所定時間」として、たとえば15秒が設定されているとすると、CPU10は、タイマ15が15秒を計時したかどうかを判定することにより、更新条件に合致したかどうかを判定する。この判定の結果、更新条件に合致すれば、つまり、タイマ15が15秒を計時すれば、CPU10は、現映像効果へのポインタを、現映像効果組へのポインタ中、次の映像効果へのポインタに変更する。ここで「次の」とは、「所定の順序」における「次の」である。「所定の順序」の例としては、
(O1)セクションA→B→C→D→A;
(O2)セクションD→C→B→A→D;
(O3)セクションA→B→C→D→C→B→A;
(O4)ランダム;
などを挙げることができる。ただし上記例では、「セクション」によって「所定の順序」を説明しているに過ぎず、実際に上記順序の「セクション」が選択される訳ではなく、「セクション」に対応付けられた映像効果へのポインタが選択される。そしてCPU10は、変更後の現映像効果へのポインタによって指し示される1つまたは2つの単体の映像効果データSEmをフラッシュメモリから読み出してRAMに記憶し、記憶した映像効果データSEmに基づいて画像データを生成し、生成した画像データを、対応する表示レイヤに記憶させる。なお、上記(C2)の更新条件が選択されるときには、「所定時間」も「所定の順序」もユーザが自由に設定できるようにすればよい。もちろんこれに限らず、デフォルトの「所定時間」および「所定の順序」が自動的に設定されるようにしてもよい。
The “predetermined time” in the update condition (C2) is counted by the timer 15. Therefore, when the update condition (C2) is selected, the CPU 10 causes the timer 15 to measure “predetermined time”. Assuming that 15 seconds is set as the “predetermined time”, for example, the CPU 10 determines whether or not the update condition is met by determining whether or not the timer 15 has counted 15 seconds. As a result of this determination, if the update condition is met, that is, if the timer 15 times 15 seconds, the CPU 10 sets the pointer to the current video effect to the next video effect in the pointer to the current video effect group. Change to a pointer. Here, “next” is “next” in “predetermined order”. Examples of “predetermined order” include
(O1) Section A → B → C → D → A;
(O2) Section D → C → B → A → D;
(O3) Section A → B → C → D → C → B → A;
(O4) Random;
And so on. However, in the above example, the “predetermined order” is only described by “section”, and the “section” in the above order is not actually selected, but the video effect associated with the “section” is selected. Is selected. Then, the CPU 10 reads out one or two single video effect data SEm indicated by the pointer to the current video effect after the change from the flash memory and stores it in the RAM, and the image data based on the stored video effect data SEm. And the generated image data is stored in the corresponding display layer. When the update condition (C2) is selected, the “predetermined time” and the “predetermined order” may be set freely by the user. Of course, the present invention is not limited to this, and the default “predetermined time” and “predetermined order” may be automatically set.

一方、ステップS5の判定で、更新条件に合致しないときには、ステップS6をスキップして、ステップS7に進む。   On the other hand, if it is determined in step S5 that the update condition is not met, step S6 is skipped and the process proceeds to step S7.

ステップS7では、CPU10は、発音指示のタッチ操作があったかどうかを判定する。本映像効果表示・編集処理の実行中に、動作モードが編集モードに移行していなければ、タッチパネル11上には現映像効果が表示されている。このタッチパネル11上の現映像効果に対して、ユーザがタッチ操作を行うと、CPU10は、そのタッチ操作を発音指示として検知する。ステップS7の判定は、この発音指示となるタッチ操作があったかどうかを判定する。   In step S <b> 7, the CPU 10 determines whether or not there has been a touch operation for sound generation instruction. If the operation mode has not shifted to the edit mode during the execution of the video effect display / editing process, the current video effect is displayed on the touch panel 11. When the user performs a touch operation on the current image effect on the touch panel 11, the CPU 10 detects the touch operation as a sound generation instruction. The determination in step S7 determines whether or not there has been a touch operation as a sound generation instruction.

ステップS7の判定の結果、発音指示のタッチ操作があったときには、CPU10は、発音指示に応じた制御処理を実行した(ステップS8)後、ステップS9に進む一方、発音指示のタッチ操作がなかったときには、CPU10は、ステップS8をスキップしてステップS9に進む。   As a result of the determination in step S7, when there is a touch operation for a sound generation instruction, the CPU 10 executes a control process corresponding to the sound generation instruction (step S8), and then proceeds to step S9, but there is no sound operation instruction touch operation. Sometimes, the CPU 10 skips step S8 and proceeds to step S9.

図6は、この発音指示に応じた制御処理の詳細な手順を示すフローチャートである。   FIG. 6 is a flowchart showing a detailed procedure of the control process according to the sound generation instruction.

同図において、CPU10は、タッチパネル11上のタッチ位置から発音すべき楽音の音高を決定し、タッチ強度から当該楽音のベロシティを決定し、タッチの継続時間から当該楽音のデュレーションを決定し、決定された音高、ベロシティおよびデュレーションの楽音が発音されるように音源部に発音を指示する(ステップS21)。ここで、ベロシティを決定する基になる「タッチ強度」は、たとえば、前記各種センサ13に含まれる加速度センサからの出力、つまり、ユーザがタッチパネル11をタッチしたときに発生する振動に応じて加速度センサが出力する信号に基づいて算出される。また音源部は、本実施の形態では前述のように、ソフトウェア音源によって構成されているので、CPU10は、決定された音高、ベロシティおよびデュレーションを音源部に受け渡す。これに応じて、音源部は発音指示された楽音信号を生成し、生成した楽音信号をサウンドシステム18に出力する。   In the figure, the CPU 10 determines the pitch of the musical sound to be generated from the touch position on the touch panel 11, determines the velocity of the musical sound from the touch intensity, and determines the duration of the musical sound from the duration of the touch. The sound source unit is instructed to generate the tone, velocity, and duration of the musical tone (step S21). Here, the “touch strength” that is the basis for determining the velocity is, for example, an acceleration sensor corresponding to an output from an acceleration sensor included in the various sensors 13, that is, vibration generated when the user touches the touch panel 11. Is calculated based on the signal output from In addition, since the sound source unit is configured by a software sound source in the present embodiment, as described above, the CPU 10 delivers the determined pitch, velocity, and duration to the sound source unit. In response to this, the tone generator unit generates a tone signal instructed to be generated and outputs the generated tone signal to the sound system 18.

そしてCPU10は、発音指示に応じて変動させるべき現映像効果の映像態様を決定し、決定された映像態様を第1パートの表示レイヤに反映させた(ステップS22)後、本制御処理を終了する。このステップS22における「現映像効果の映像態様を決定」は、RAMに記憶されている、第1パートの単体の映像効果データSEmに含まれる実行コードを、CPU10がタッチパネル11に対するユーザのタッチ操作に応じたタッチ情報(タッチ位置、タッチ強度およびタッチ継続時間など)に基づいて実行することによって行われる。現映像効果として、たとえば図4(c)の映像効果がタッチパネル11上に表示されているとする。ただし図4(c)の映像効果は、映像態様が変動された状態のものであるので、現映像効果は、映像態様が変動されていないもの、つまり、3本の柱が突き出ていない、5×5個の穴だけが空いているものである。この現映像効果がタッチパネル11上に表示された状態で、ユーザが、柱の位置の穴をタッチすると、タッチ強度に応じた長さの柱が穴から突き出てくる。図4(c)の映像効果例では、この3本の柱が、変動された映像態様である。   Then, the CPU 10 determines the video mode of the current video effect to be changed in accordance with the sound generation instruction, reflects the determined video mode on the display layer of the first part (step S22), and then ends this control process. . The “determine the video mode of the current video effect” in step S22 is executed by the CPU 10 using the execution code included in the single video effect data SEm of the first part stored in the RAM as a user touch operation on the touch panel 11. It is performed by executing based on the corresponding touch information (touch position, touch intensity, touch duration, etc.). As the current video effect, for example, it is assumed that the video effect in FIG. 4C is displayed on the touch panel 11. However, since the video effect in FIG. 4C is in a state in which the video mode is changed, the current video effect is that in which the video mode is not changed, that is, three pillars do not protrude. X Only 5 holes are open. When the user touches the hole at the position of the column in a state where the current video effect is displayed on the touch panel 11, a column having a length corresponding to the touch strength protrudes from the hole. In the image effect example of FIG. 4C, these three pillars are changed image modes.

図5に戻り、次にCPU10は、演奏情報を受信したかどうかを判定する(ステップS9)。この演奏情報は、本実施の形態では、電子鍵盤楽器2が送信したMIDIデータ、特にMIDIチャンネルメッセージである。つまり、同じMIDIデータであっても、SysExメッセージを受信した場合には、CPU10は、演奏情報を受信したとは判定しない。   Returning to FIG. 5, next, the CPU 10 determines whether or not performance information has been received (step S9). In the present embodiment, this performance information is MIDI data transmitted by the electronic keyboard instrument 2, particularly a MIDI channel message. That is, even if the MIDI data is the same, if the SysEx message is received, the CPU 10 does not determine that the performance information has been received.

ステップS9の判定の結果、MIDIチャンネルメッセージを受信したときには、CPU10は、演奏情報に応じた制御処理を実行した(ステップS10)後、ステップS11に進む一方、MIDIチャンネルメッセージを受信しなかったときには、CPU10は、ステップS10をスキップしてステップS11に進む。   As a result of the determination in step S9, when a MIDI channel message is received, the CPU 10 executes a control process corresponding to the performance information (step S10), and then proceeds to step S11. On the other hand, when a MIDI channel message is not received, The CPU 10 skips step S10 and proceeds to step S11.

図7は、この演奏情報に応じた制御処理の詳細な手順を示すフローチャートである。   FIG. 7 is a flowchart showing a detailed procedure of the control process according to the performance information.

同図において、CPU10は、前記演奏情報・パート対応テーブルを参照し、受信したMIDIチャンネルメッセージのMIDIチャンネルが第1パートに対応付けられているか、第2パートに対応付けられているか、あるいはいずれのパートにも対応付けられていないかを判定し、判定結果に応じた処理に振り分ける(ステップS31)。具体的には、当該MIDIチャンネルメッセージが第1パートに対応付けられたものであれば、CPU10は、処理をステップS32に進め、当該MIDIチャンネルメッセージが第2パートに対応付けられたものであれば、CPU10は、処理をステップS33に進め、当該MIDIチャンネルメッセージがいずれのパートにも対応付けられたものでなければ、CPU10は、本制御処理を終了する。   In the figure, the CPU 10 refers to the performance information / part correspondence table, and the MIDI channel of the received MIDI channel message is associated with the first part, the second part, or any one of them. It is determined whether it is also associated with a part, and the process is distributed according to the determination result (step S31). Specifically, if the MIDI channel message is associated with the first part, the CPU 10 proceeds to step S32, and if the MIDI channel message is associated with the second part. The CPU 10 advances the process to step S33, and if the MIDI channel message is not associated with any part, the CPU 10 ends the control process.

ステップS32では、CPU10は、当該MIDIチャンネルメッセージから音高、ベロシティおよびデュレーションを抽出し、当該抽出された音高、ベロシティおよびデュレーションに応じて変動させるべき第1パートの現映像効果の映像態様を決定し、決定された映像態様を第1パートの表示レイヤに反映させる。   In step S32, the CPU 10 extracts the pitch, velocity, and duration from the MIDI channel message, and determines the video mode of the current video effect of the first part to be changed according to the extracted pitch, velocity, and duration. Then, the determined video mode is reflected on the display layer of the first part.

ステップS33では、CPU10は、当該MIDIチャンネルメッセージから音高、ベロシティおよびデュレーションを抽出し、当該抽出された音高、ベロシティおよびデュレーションに応じて変動させるべき第2パートの現映像効果の映像態様を決定し、決定された映像態様を第2パートの表示レイヤに反映させる。   In step S33, the CPU 10 extracts the pitch, velocity, and duration from the MIDI channel message, and determines the video mode of the current video effect of the second part to be changed according to the extracted pitch, velocity, and duration. Then, the determined video mode is reflected on the display layer of the second part.

上記ステップS32およびS33の各処理は、前記図6のステップS22の処理とほぼ同様であるので、これ以上説明しない。   Since each process of the said step S32 and S33 is substantially the same as the process of step S22 of the said FIG. 6, it does not explain any more.

図5に戻り、次にCPU10は、別の映像効果組#nが選択指示されたどうかを判定する(ステップS11)。現映像効果組ではない別の映像効果組#nの選択指示は、ユーザがタッチパネル11上に表示されたメニュー画像内の対応するメニューをタッチ操作することによって行うことができるので、ステップS11の判定では、CPU10は、そのメニューに対するタッチ操作があったかどうかを判定する。   Returning to FIG. 5, next, the CPU 10 determines whether or not another video effect group #n is selected and instructed (step S11). Since the user can instruct selection of another video effect group #n that is not the current video effect group by touching the corresponding menu in the menu image displayed on the touch panel 11, the determination in step S11 is performed. Then, the CPU 10 determines whether or not there is a touch operation on the menu.

ステップS11の判定の結果、別の映像効果組#nが選択指示されたときには、CPU10は、選択指示された映像効果組#nをフラッシュメモリから読み出して、現映像効果組としてRAMに記憶することで、別の映像効果組#nを選択する(ステップS12)。またCPU10は、この現映像効果組を構成する4つの映像効果へのポインタのうち、デフォルトのセクションに対応付けられたポインタを、現映像効果としてRAMに記憶する。さらにCPU10は、現映像効果組および現映像効果に基づいて、前記(3)の処理と同様の処理を実行することにより、1つあるいは2つの単体の映像効果データSEmに基づいて画像データを生成し、対応する表示レイヤに記憶する。   As a result of the determination in step S11, when another video effect group #n is instructed, the CPU 10 reads out the selected video effect group #n from the flash memory and stores it in the RAM as the current video effect group. Then, another video effect group #n is selected (step S12). Further, the CPU 10 stores, in the RAM, the pointer associated with the default section among the pointers to the four video effects constituting the current video effect group as the current video effect. Further, the CPU 10 generates image data based on one or two single video effect data SEm by executing the same process as the process (3) based on the current video effect group and the current video effect. And stored in the corresponding display layer.

一方、ステップS11の判定の結果、別の映像効果組が選択指示されなかったときには、CPU10は、ステップS12をスキップしてステップS13に進む。   On the other hand, if the result of determination in step S11 is that no other video effect group has been selected, the CPU 10 skips step S12 and proceeds to step S13.

ステップS13では、CPU10は、編集モードが指示されたかどうかを判定する。編集モードの指示は、ユーザがタッチパネル11上に表示されたメニュー画像内の対応するメニューをタッチ操作することによって行うことができるので、ステップS13の判定では、CPU10は、そのメニューに対するタッチ操作があったかどうかを判定する。   In step S13, the CPU 10 determines whether an edit mode has been instructed. The editing mode can be instructed by the user touching the corresponding menu in the menu image displayed on the touch panel 11. Therefore, in the determination of step S <b> 13, the CPU 10 determines whether the menu has been touched. Determine if.

ステップS13の判定の結果、編集モードが指示されたときには、CPU10は、ユーザ操作に従って、映像効果組を作成あるいは変更して保存する(ステップS14)。なお、映像効果組を作成あるいは変更する際に、ミキシングされる映像効果を指定することもあるので、編集モードでは、ミキシングされる映像効果も作成あるいは変更して保存できるものとする。   As a result of the determination in step S13, when the editing mode is instructed, the CPU 10 creates or changes a video effect group and saves it according to the user operation (step S14). Note that when creating or changing a video effect group, a video effect to be mixed may be specified, and therefore, in the edit mode, a video effect to be mixed can also be created or changed and saved.

一方、ステップS13の判定の結果、編集モードが指示されなかったときには、CPU10は、ステップS14をスキップしてステップS15に進む。   On the other hand, if the result of determination in step S13 is that editing mode has not been instructed, the CPU 10 skips step S14 and proceeds to step S15.

ステップS15では、CPU10は、終了が指示されたかどうかを判定する。終了の指示は、ユーザがタッチパネル11上に表示されたメニュー画像内の対応するメニューをタッチ操作することによって行うことができるので、ステップS15の判定では、CPU10は、そのメニューに対するタッチ操作があったかどうかを判定する。   In step S15, the CPU 10 determines whether termination has been instructed. Since the end instruction can be performed by the user touching the corresponding menu in the menu image displayed on the touch panel 11, the CPU 10 determines in step S15 whether the touch operation has been performed on the menu. Determine.

ステップS15の判定の結果、終了が指示されたときには、CPU10は、終了処理を実行した(ステップS16)後、本映像効果表示・編集処理を終了する。終了処理では、CPU10は、現映像効果組へのポインタ、現映像効果へのポインタ、ミキシング設定、演奏情報・パート対応テーブルおよび更新条件などをフラッシュメモリの所定領域に保存する。   If the end is instructed as a result of the determination in step S15, the CPU 10 executes an end process (step S16), and then ends the video effect display / edit process. In the end processing, the CPU 10 stores a pointer to the current video effect group, a pointer to the current video effect, mixing settings, performance information / part correspondence table, update conditions, and the like in a predetermined area of the flash memory.

一方、ステップS15の判定の結果、終了が指示されなかったときには、CPU10は、処理を前記ステップS2に戻して、ステップS2〜S15の処理を繰り返す。   On the other hand, if the end is not instructed as a result of the determination in step S15, the CPU 10 returns the process to step S2 and repeats the processes in steps S2 to S15.

図8は、タイマ割込み処理の手順を示すフローチャートである。本タイマ割込み処理は、タイマ15が、たとえば1/30秒を計時する度に、起動される。   FIG. 8 is a flowchart showing the procedure of timer interrupt processing. This timer interruption process is started every time the timer 15 measures 1/30 seconds, for example.

図8において、まずCPU10は、現映像効果に応じて、第1パートの表示レイヤあるいは第2パートの表示レイヤの内容を加工する(ステップS41)。「第1パートの表示レイヤあるいは第2パートの表示レイヤ」とは、加工すべき内容が第1パートを対象とするときは第1パートの表示レイヤの内容を加工し、加工すべき内容が第2パートを対象とするときは第2パートの表示レイヤの内容を加工することを意味し、たまたま両パートとも加工の対象としない場合もあれば、一方のパートしか加工の対象としない場合もあり、さらに両パートとも加工の対象とする場合もある。また、このステップS41の処理は、時間の経過に従って表示態様が変化して行く映像効果を生成するためのものであるため、現映像効果の表示態様が時間的に変動しない場合には、このステップS41の処理は実行されない。「現映像効果に応じて」とは、この意味である。図4(a)は、電子鍵盤楽器2から、第1パートに対応付けられたMIDIチャンネルメッセージが送信されて来たときに、タッチパネル11上に表示された映像効果の一例を示している。図示例の映像効果では、たとえば、音名が“E”のMIDIチャンネルメッセージが届くと、そのベロシティに応じた半径の、中心に音名“E”が記載された円が表示され、その円は、時間の経過に従って落下して行く。上記ステップS41の処理は、第1パートの表示レイヤの内容を加工することで、この「落下」の表示態様を生成する。他の例としては、図4(b)の「波紋」を挙げることができる。もちろん、時間の経過に従って変動する表示態様であれば、上記例に限られない。   In FIG. 8, first, the CPU 10 processes the contents of the display layer of the first part or the display layer of the second part according to the current video effect (step S41). “The display layer of the first part or the display layer of the second part” means that when the content to be processed is the first part, the content of the display layer of the first part is processed, and the content to be processed is the first When targeting two parts, it means that the content of the display layer of the second part is processed, and by chance both parts may not be processed or only one part may be processed. In addition, both parts may be processed. Further, since the process of step S41 is for generating a video effect in which the display mode changes with the passage of time, this step is performed when the display mode of the current video effect does not vary with time. The process of S41 is not executed. “According to the current picture effect” means this. FIG. 4A shows an example of a video effect displayed on the touch panel 11 when a MIDI channel message associated with the first part is transmitted from the electronic keyboard instrument 2. In the image effect of the illustrated example, for example, when a MIDI channel message having a note name “E” arrives, a circle with a note name “E” at the center of a radius corresponding to the velocity is displayed. Go down as time goes by. The process of step S41 generates the “drop” display mode by processing the contents of the display layer of the first part. Another example is the “ripple” shown in FIG. Of course, the display example is not limited to the above example as long as the display mode varies with the passage of time.

次にCPU10は、ミキシング設定に応じて、第1パートの表示レイヤと第2パートの表示レイヤとで演算する(ステップS42)。つまり、上記ステップS41までの処理によって用意された第1パートの表示レイヤと第2パートの表示レイヤとの間で、現在のミキシング設定で定められている重ね方、透過率および演算方法(AND,OR,XORなど)などに応じた演算が施される。   Next, the CPU 10 calculates the display layer of the first part and the display layer of the second part according to the mixing setting (step S42). That is, between the display layer of the first part and the display layer of the second part prepared by the processing up to step S41, the overlapping method, transmittance, and calculation method (AND, OR, XOR, etc.) are performed.

そしてCPU10は、演算結果を外部LCD3の表示用に出力し(ステップS43)、演算結果にさらにメニュー画像を重ね合わせ、タッチパネル11の表示用に出力する(ステップS44)。   Then, the CPU 10 outputs the calculation result for display on the external LCD 3 (step S43), further superimposes the menu image on the calculation result, and outputs it for display on the touch panel 11 (step S44).

なお本実施の形態では、第1パートまたは第2パートへの振り分けは、MIDIチャンネルに基づいて行うようにしたが、これに限らず、複数のMIDIポートのポートや、ポートとチャンネルの組み合わせに基づいて行うようにしてもよい。   In this embodiment, the distribution to the first part or the second part is performed based on the MIDI channel. However, the present invention is not limited to this, and based on a combination of ports of a plurality of MIDI ports or ports and channels. May be performed.

また本実施の形態では、前記図5のステップS9における「演奏情報」を「MIDIチャンネルメッセージ」に限定したが、これは説明を簡単化するためにそうしたに過ぎず、「SysExメッセージ」の中にも「演奏情報」と見なせるものがあるようにしてもよい。たとえば、SysExメッセージ内に、独自形式でチャンネル情報を持たせ、MIDIチャンネルメッセージと同じように扱えるようにしたり、コモンメッセージやリアルタイムメッセージ(SysExメッセージに含まれる)も演奏時の操作に応じて通信するようにし、「演奏情報」と同様に扱うようにしたりしてもよい。さらにコモンメッセージやリアルタイムメッセージは、選択指示の情報として扱うようにしてもよい。   Further, in the present embodiment, the “performance information” in step S9 of FIG. 5 is limited to “MIDI channel message”, but this is merely for the sake of simplicity, and is included in the “SysEx message”. May also be considered as “performance information”. For example, in a SysEx message, channel information is provided in a unique format so that it can be handled in the same way as a MIDI channel message, or a common message or a real-time message (included in the SysEx message) is also communicated according to an operation during performance. Thus, it may be handled in the same manner as the “performance information”. Furthermore, common messages and real-time messages may be handled as selection instruction information.

なお本実施の形態では、映像効果組#n内のポインタ数、ミキシングされる映像効果MEk内のポインタ数、および同時に表示される映像効果のパート数は、それぞれ“4”,“2”および“2”としたが、複数であれば、これに限らないことは言うまでもない。   In this embodiment, the number of pointers in the video effect group #n, the number of pointers in the video effect MEk to be mixed, and the number of parts of the video effect displayed simultaneously are “4”, “2”, and “ Needless to say, the number is not limited to this as long as it is 2 ″.

また本実施の形態では、電子鍵盤楽器2として、鍵盤2aの鍵数が24鍵のものを採用したが、鍵盤の鍵数はこれに限らず、49,61,76,88など、どのような鍵数でもよいし、各種鍵数の電子鍵盤楽器から任意に選択して接続できるようにしてもよい。後者の場合、たとえば49鍵の電子鍵盤楽器が接続されているときには、タッチパネル11の画面全体に映像効果が表示態様を変動しながら適正に表示されていたとしても、その接続が、他の鍵数、たとえば88鍵の電子鍵盤楽器に変更されたときには、映像効果の変動された表示態様の一部がタッチパネル11の画面上からはみ出てしまい、表示されないことがある。この問題に対処するために、接続された電子鍵盤楽器の鍵数に応じて、映像効果を調整(表示範囲の拡大や縮小など)するようにすればよい。このとき、スレートデバイス1は、接続された電子鍵盤楽器の鍵数を取得する必要があるが、その取得方法としては、ユーザに鍵数を入力させる方法や、スレートデバイス1がMIDIデータなどで電子鍵盤楽器に機種を問い合わせ、回答された機種から鍵数を判断する方法などがある。   In the present embodiment, the electronic keyboard instrument 2 has a keyboard 2a with 24 keys. However, the number of keys on the keyboard is not limited to this, and 49, 61, 76, 88, etc. The number of keys may be selected, or an electronic keyboard instrument having various numbers of keys may be arbitrarily selected and connected. In the latter case, for example, when a 49-key electronic keyboard instrument is connected, even if the video effect is properly displayed on the entire screen of the touch panel 11 while changing the display mode, the connection is not possible. For example, when the electronic keyboard instrument is changed to 88 keys, a part of the display mode in which the video effect is changed may protrude from the screen of the touch panel 11 and may not be displayed. In order to cope with this problem, the video effect may be adjusted (such as enlargement or reduction of the display range) according to the number of keys of the connected electronic keyboard instrument. At this time, the slate device 1 needs to acquire the number of keys of the connected electronic keyboard instrument. As the acquisition method, a method for allowing the user to input the number of keys or the slate device 1 electronically transmits MIDI data or the like. There is a method of inquiring the model of the keyboard instrument and determining the number of keys from the answered model.

さらに本実施の形態では、映像効果の表示態様は、電子鍵盤楽器2から送信されて来たMIDIチャンネルメッセージ(音高、ベロシティおよびデュレーションを含むもの)と、タッチパネル11へのユーザの発音指示のタッチ操作とによって変動するが、これに加えて、他のMIDIチャンネルメッセージ、具体的には、前記楽音についての各種パラメータ(音色、テンポ、ピッチベンド、モジュレーション、アフタータッチ、フットペダル(サスティンペダル、ソフテヌートペダルおよびソフトペダルなど)の操作状態、フィルタ係数(カットオフ・レゾナンスなど)など)を含むMIDIチャンネルメッセージや、各種センサ13からの各種センサ出力によって変動するようにしてもよい。   Furthermore, in the present embodiment, the display mode of the video effect is that the MIDI channel message (including pitch, velocity, and duration) transmitted from the electronic keyboard instrument 2 and the touch of the user's pronunciation instruction on the touch panel 11 are displayed. In addition to this, other MIDI channel messages, specifically various parameters (tone, tempo, pitch bend, modulation, aftertouch, foot pedal (sustain pedal, soft tenute pedal) And a soft channel pedal (such as a soft pedal), a MIDI channel message including a filter coefficient (cutoff resonance, etc.), and various sensor outputs from the various sensors 13.

また本実施の形態では、更新条件と映像効果の変更方法として、前記(C1)および(C2)を挙げて説明したが、これに、
(C11)各種センサ出力:セクションを決定し、決定したセクションに対応付けられたポインタが指し示す映像効果に変更;
(C12)所定のMIDIデータを受信:セクションを決定し、決定したセクションに対応付けられたポインタが指し示す映像効果に変更;
(C21)各種センサ出力:所定の順序で、次の映像効果に変更;
(C22)所定のMIDIデータを受信:所定の順序で、次の映像効果に変更;
を加えるようにしてもよい。
In the present embodiment, (C1) and (C2) have been described as the update condition and the method for changing the video effect.
(C11) Various sensor outputs: determine a section and change to a video effect indicated by a pointer associated with the determined section;
(C12) Receive predetermined MIDI data: determine a section and change to a video effect indicated by a pointer associated with the determined section;
(C21) Various sensor outputs: Change to the next video effect in a predetermined order;
(C22) Receive predetermined MIDI data: Change to the next video effect in a predetermined order;
May be added.

上記(C11)の具体例としては、
例1:センサ毎に閾値とセクションを決めておき、あるセンサが当該閾値を超えると、当該セクションに対応付けられたポインタが指し示す映像効果に変更する;
例2:カメラからの画像を画像し、人が所定のポーズや動作をしたときに、予め決められたセクションを決定し、このセクションに対応付けられたポインタが指し示す映像効果に変更する;
を挙げることができる。
As a specific example of the above (C11),
Example 1: A threshold value and a section are determined for each sensor, and when a sensor exceeds the threshold value, the video effect is changed to a pointer indicated by the section.
Example 2: An image from a camera is imaged, and when a person performs a predetermined pose or motion, a predetermined section is determined and changed to a video effect indicated by a pointer associated with this section;
Can be mentioned.

上記(C12)の具体例としては、
例1:音色切替や伴奏切替(セクション切替ではない)のMIDIデータを受信すると、切り替え後の「音色」や「伴奏」の属するカテゴリを割り出し、そのカテゴリに対応するセクションを決定し、このセクションに対応付けられたポインタが指し示す映像効果に変更する;
を挙げることができる。
As a specific example of the above (C12),
Example 1: When MIDI data for timbre switching or accompaniment switching (not section switching) is received, the category to which the “timbre” or “accompaniment” belongs after switching is determined, the section corresponding to the category is determined, and this section Change to the video effect pointed to by the associated pointer;
Can be mentioned.

上記(C21)の具体例としては、
例1:センサ毎に閾値を決めておき、あるセンサが当該閾値を超えると、所定の順序で、次の映像効果に変更する;
例2:カメラからの画像を認識し、人が所定のポーズや動作をしたときに、所定の順序で、次の映像効果に変更する;
を挙げることができる。
As a specific example of the above (C21),
Example 1: A threshold value is determined for each sensor, and when a certain sensor exceeds the threshold value, it is changed to the next video effect in a predetermined order;
Example 2: Recognizing an image from a camera and changing to the next video effect in a predetermined order when a person performs a predetermined pose or motion;
Can be mentioned.

上記(C22)の具体例としては、
例1:音色切替や伴奏切替(セクション切替ではない)のMIDIデータを受信する度に、所定の順序で、次の映像効果に変更する;
を挙げることができる。
As a specific example of the above (C22),
Example 1: Each time MIDI data for timbre switching or accompaniment switching (not section switching) is received, it is changed to the next video effect in a predetermined order;
Can be mentioned.

また、各種センサ出力とMIDIデータとの組み合わせによって更新条件を決めるようにしてもよいし、あるいは、電子鍵盤楽器2が出力した前記オーディオ信号によって更新条件を決めるようにしてもよい。そして、この更新条件が成立すると、セクションを決定し、決定したセクションに対応付けられたポインタが指し示す映像効果に変更したり、あるいは、所定の順序で、次の映像効果に変更したりすればよい。オーディオ信号によってセクションを決定する場合には、オーディオ信号内に、あるいはすかしで、セクションを指定する情報を埋め込んでおくようにすればよい。なお、スレートデバイス1に入力されたオーディオ信号は、タッチパネル11上に表示される映像効果とともに動画として記録される。また、オーディオ信号の特性は、映像効果の表示態様の変動に用いるようにしてもよい。   Further, the update condition may be determined by a combination of various sensor outputs and MIDI data, or the update condition may be determined by the audio signal output from the electronic keyboard instrument 2. When this update condition is satisfied, the section is determined and the video effect indicated by the pointer associated with the determined section is changed, or the video effect is changed to the next video effect in a predetermined order. . When a section is determined by an audio signal, information for designating the section may be embedded in the audio signal or watermark. The audio signal input to the slate device 1 is recorded as a moving image together with a video effect displayed on the touch panel 11. Further, the characteristics of the audio signal may be used to change the display mode of the video effect.

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、ネットワーク5を介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from the server computer via the network 5.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

10…CPU(受取手段、選択手段、制御手段),11…タッチパネル(受取手段、表示手段),14…メモリ(記憶手段),16…アダプタI/F(受取手段) DESCRIPTION OF SYMBOLS 10 ... CPU (receiving means, selection means, control means), 11 ... Touch panel (receiving means, display means), 14 ... Memory (storage means), 16 ... Adapter I / F (receiving means)

Claims (4)

演奏指示を受け取る受取手順と、
所定の条件が成立したときに、記憶手段に記憶された複数の映像効果からなる映像効果組からいずれか1つの映像効果を選択する選択手順と、
前記選択手順によって選択された映像効果の表示態様を、前記受取手順によって受け取った演奏指示に応じて変動させて、表示手段に表示させる表示手順と
をコンピュータに実行させるためのプログラム。
A receiving procedure for receiving performance instructions;
A selection procedure for selecting any one video effect from a video effect group consisting of a plurality of video effects stored in the storage means when a predetermined condition is satisfied;
A program for causing a computer to execute a display procedure for causing a display unit to display a display mode of a video effect selected by the selection procedure in accordance with a performance instruction received by the reception procedure.
前記映像効果組から、選択すべき1つの映像効果を指定する指定情報を取得する取得手順をさらにコンピュータに実行させるためのプログラムであって、
前記選択手順では、前記映像効果組から、前記取得手段によって取得された指定情報によって指定される映像効果を選択することを特徴とする請求項1に記載のプログラム。
A program for causing a computer to further execute an acquisition procedure for acquiring designation information for designating one video effect to be selected from the video effect group,
The program according to claim 1, wherein in the selection procedure, a video effect designated by the designation information obtained by the obtaining unit is selected from the video effect group.
前記選択手順では、前記映像効果組からいずれか1つの映像効果を選択するときに、所定の順序に従って選択することを特徴とする請求項1に記載のプログラム。   2. The program according to claim 1, wherein, in the selection procedure, when selecting any one of the video effects from the video effect group, the selection is performed according to a predetermined order. 演奏指示を受け取る受取手段と、
複数の映像効果からなる映像効果組を記憶する記憶手段と、
所定の条件が成立したときに、前記記憶手段に記憶された映像効果組からいずれか1つの映像効果を選択する選択手段と、
前記選択手段によって選択された映像効果の表示態様を、前記受取手段によって受け取った演奏指示に応じて変動させて、表示手段に表示させるように制御する制御手段と
を有することを特徴とする音楽画像表示装置。
A receiving means for receiving performance instructions;
Storage means for storing a video effect group comprising a plurality of video effects;
Selecting means for selecting any one of the video effects from the video effect set stored in the storage means when a predetermined condition is satisfied;
A music image comprising: control means for controlling the display mode of the video effect selected by the selection means to be changed in accordance with a performance instruction received by the receiving means and to be displayed on the display means. Display device.
JP2012096421A 2012-04-20 2012-04-20 Program and music image display apparatus for realizing music image display method Active JP5870831B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012096421A JP5870831B2 (en) 2012-04-20 2012-04-20 Program and music image display apparatus for realizing music image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012096421A JP5870831B2 (en) 2012-04-20 2012-04-20 Program and music image display apparatus for realizing music image display method

Publications (2)

Publication Number Publication Date
JP2013224999A true JP2013224999A (en) 2013-10-31
JP5870831B2 JP5870831B2 (en) 2016-03-01

Family

ID=49595097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012096421A Active JP5870831B2 (en) 2012-04-20 2012-04-20 Program and music image display apparatus for realizing music image display method

Country Status (1)

Country Link
JP (1) JP5870831B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122663A (en) * 2013-12-24 2015-07-02 パイオニア株式会社 Operation device, control method of the same, and program
JP2020008755A (en) * 2018-07-10 2020-01-16 有限会社めがね部 Music-linked image display system
JP2021099460A (en) * 2019-12-23 2021-07-01 カシオ計算機株式会社 Program, method, electronic apparatus, and musical performance data display system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63170697A (en) * 1987-09-04 1988-07-14 ヤマハ株式会社 Musical sound image converter
JP2003099035A (en) * 2001-09-20 2003-04-04 Yamaha Corp Automatic playing device, information distributing server device, and program used for them

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63170697A (en) * 1987-09-04 1988-07-14 ヤマハ株式会社 Musical sound image converter
JP2003099035A (en) * 2001-09-20 2003-04-04 Yamaha Corp Automatic playing device, information distributing server device, and program used for them

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015122663A (en) * 2013-12-24 2015-07-02 パイオニア株式会社 Operation device, control method of the same, and program
JP2020008755A (en) * 2018-07-10 2020-01-16 有限会社めがね部 Music-linked image display system
JP2021099460A (en) * 2019-12-23 2021-07-01 カシオ計算機株式会社 Program, method, electronic apparatus, and musical performance data display system
JP7070538B2 (en) 2019-12-23 2022-05-18 カシオ計算機株式会社 Programs, methods, electronic devices, and performance data display systems

Also Published As

Publication number Publication date
JP5870831B2 (en) 2016-03-01

Similar Documents

Publication Publication Date Title
JP4328828B2 (en) Portable chord output device, computer program, and recording medium
JP6171828B2 (en) Program and sound effect data generating apparatus for realizing sound effect data generating method
JP2006243102A (en) Device and program for supporting performance
JP5870831B2 (en) Program and music image display apparatus for realizing music image display method
JP6729052B2 (en) Performance instruction device, performance instruction program, and performance instruction method
JP2006106641A (en) Electronic musical device
JP6583320B2 (en) Automatic accompaniment apparatus, automatic accompaniment program, and accompaniment data generation method
JP3551065B2 (en) Data setting device
JP2014146061A (en) Electronic music device
JP6657866B2 (en) Sound effect imparting device and sound effect imparting program
JP5277814B2 (en) Electronic music apparatus and program
JP6255960B2 (en) Program and music data generating apparatus for realizing music data generating method
JP6186955B2 (en) Electronic device, program for realizing control method of electronic device, and control method of electronic device
JP2011197664A (en) Music file reproduction device and system
JP6394366B2 (en) Karaoke device and karaoke program
JP6901955B2 (en) Karaoke equipment
JP6343921B2 (en) Program and musical sound generation control method
JP5303959B2 (en) Program for realizing electronic music apparatus and control method thereof
JP2000172267A (en) Playing assistance apparatus and record medium for the same
JP4186853B2 (en) Accompaniment information setting device and program for realizing the control method
JP2004220208A (en) Basic program and recording medium capable of easily switching program environment
JP2022155749A (en) Playback position instruction device, music playback device and playback position instruction program
JP2014071215A (en) Musical performance device, musical performance system, and program
JP2015075574A (en) Musical performance data generation device and program for realizing musical performance data generation method
JP5821162B2 (en) Electronic music apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150630

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151228

R151 Written notification of patent or utility model registration

Ref document number: 5870831

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151