JP5277816B2 - Electronic music apparatus and program - Google Patents

Electronic music apparatus and program Download PDF

Info

Publication number
JP5277816B2
JP5277816B2 JP2008234546A JP2008234546A JP5277816B2 JP 5277816 B2 JP5277816 B2 JP 5277816B2 JP 2008234546 A JP2008234546 A JP 2008234546A JP 2008234546 A JP2008234546 A JP 2008234546A JP 5277816 B2 JP5277816 B2 JP 5277816B2
Authority
JP
Japan
Prior art keywords
display
tone
control
display object
screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008234546A
Other languages
Japanese (ja)
Other versions
JP2010066655A (en
Inventor
孝至 水引
紘一 柏崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008234546A priority Critical patent/JP5277816B2/en
Publication of JP2010066655A publication Critical patent/JP2010066655A/en
Application granted granted Critical
Publication of JP5277816B2 publication Critical patent/JP5277816B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic musical instrument capable of performing various musical sound control according to user's operation mode. <P>SOLUTION: When the user's operation is a prescribed operation mode, a display position of a first and/or a second display object is controlled and changed so that a time-continuous moving operation according to an action mode which is made to cope with the operation mode beforehand may be autonomously performed, even if the user's operation is not continuously performed. According to display position relation of the first object and the second object, which perform autonomous moving operation, a pitch or a control value of a tone effect parameter of musical sound, which is made to cope with the second display object is determined, and on the basis of the pitch and the control value, the musical sound is controlled. Thus, since the musical sound is controlled according to the display position relation of each object which autonomously moves, a user visually enjoys himself or herself, and various musical sound control is performed according to the operation mode. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

この発明は、画面上に表示されたオブジェクトを操作して楽音の制御を行う電子音楽装置及びプログラムに関する。特に、ユーザの操作態様毎に異なる特性に従ってオブジェクトを自動的に動かし、このオブジェクトの動きに応じて楽音を制御するようにした技術に関する。   The present invention relates to an electronic music apparatus and a program for controlling a musical sound by operating an object displayed on a screen. In particular, the present invention relates to a technique in which an object is automatically moved according to a different characteristic for each operation mode of a user, and a musical sound is controlled according to the movement of the object.

従来から、電子楽器などの電子音楽装置において、例えば鍵盤などの演奏操作子や、モジュレーションホイールやスライダーなどの制御操作子それぞれを模したオブジェクトを画面上に予め表示しておき、該画面上のオブジェクトがユーザにより直接操作されることに従って、予め関連付けられている例えば音高や、ボリューム、ピッチ、LFOなどといった各種の音色効果パラメータの制御値(パラメータ値)を決定し楽音の制御を行うものが知られている。こうした装置に関連するものとしては、例えば下記に示す非特許文献1及び非特許文献2に記載されている装置がその一例である。なお、この明細書において、楽音という場合、音楽的な音に限るものではなく、音声あるいはその他任意の音を含んでいてもよい意味あいで用いるものとする。
“MOTIF XS 6/7/8 取扱説明書”,2007年,ヤマハ株式会社,インターネット〈http://www2.yamaha.co.jp/manual/pdf/emi/japan/synth/motifxs_ja_om_c1.pdf〉 “XGworks V4.0 カタログ”,2002年,ヤマハ株式会社,インターネット〈http://www.yamaha.co.jp/product/syndtm/p/soft/xgwv4w/xgwv4w.pdf〉
Conventionally, in an electronic music apparatus such as an electronic musical instrument, for example, objects that simulate performance operators such as a keyboard and control operators such as a modulation wheel and a slider are displayed in advance on the screen, and the objects on the screen are displayed. Is known to perform control of musical sound by determining control values (parameter values) of various timbre effect parameters such as pitch, volume, pitch, LFO, etc., which are associated in advance when the user is directly operated by the user. It has been. For example, devices described in Non-Patent Document 1 and Non-Patent Document 2 shown below are examples of such devices. In this specification, the term “musical sound” is not limited to musical sound, but is used in the sense that it may include voice or any other sound.
“MOTIF XS 6/7/8 Instruction Manual”, 2007, Yamaha Corporation, Internet <http://www2.yamaha.co.jp/manual/pdf/emi/japan/synth/motifxs_ja_om_c1.pdf> “XGworks V4.0 Catalog”, 2002, Yamaha Corporation, Internet <http://www.yamaha.co.jp/product/syndtm/p/soft/xgwv4w/xgwv4w.pdf>

ところで、上述の非特許文献1,2に記載されたような従来の装置において、画面上に表示されるオブジェクトは本装置が具備している実在の演奏操作子や制御操作子(以下、単に操作子と呼ぶ)の形状を模して表示されるだけでなく、その操作子に対する操作態様を同じものとすることによってユーザが操作しやすくしてある。しかし、実在の操作子を模したオブジェクトをユーザが操作したとしても、そのオブジェクトに対するユーザの操作態様は実在する操作子となんら変わるものでなく、従ってユーザは操作に応じて行われる楽音の制御を当然にある程度予測しうるので意外性が無く何ら面白みがない。そこで、ユーザが視覚的に楽しむことができ、かつユーザの操作態様に従って同じオブジェクトに対する操作であっても楽音の制御態様が異なりうるものが従来から望まれていたが、未だそのような装置は実現されていない。   By the way, in the conventional apparatus as described in Non-Patent Documents 1 and 2 described above, an object displayed on the screen is an actual performance operator or a control operator (hereinafter simply referred to as an operation) provided in the apparatus. In addition to being displayed in a manner similar to the shape of a child), it is easy for the user to operate by making the operation mode for the operator the same. However, even if the user operates an object that imitates an actual operation element, the user's operation mode for the object is not different from that of an actual operation element, and therefore the user can control the musical sound that is performed according to the operation. Naturally, it can be predicted to some extent, so there is no surprise and no interest. Therefore, there has been a demand for a device that can be enjoyed visually by the user and that can control the tone of the sound even if the operation is performed on the same object according to the user's operation mode. However, such a device is still realized. It has not been.

本発明は上述の点に鑑みてなされたもので、ユーザが視覚的に楽しむことができるとともに、ユーザの操作態様に応じて多様な楽音制御を行うことができるようにした電子音楽装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above points, and provides an electronic music apparatus and program that can be enjoyed visually by a user and can perform various musical tone controls according to the user's operation mode. The purpose is to provide.

本発明に係る電子音楽装置は、仮想の操作子を表す第1表示オブジェクトと、楽音の音高又は楽音制御に係る音色効果パラメータに対応付けられた第2表示オブジェクトとを少なくとも含む画面を表示する表示器であって、複数の前記第1表示オブジェクトがそれぞれ画面上の任意の位置に表示される前記表示器と、前記画面内で行なわれたユーザ操作を検出し、該検出したユーザ操作が所定の操作態様であるか否かを判定する判定手段と、前記検出したユーザ操作が所定の操作態様である場合に、該操作態様に予め対応付けられた動作態様に従って時間的に継続する移動動作を前記ユーザ操作が継続的に行われていなくとも自律的に行うように、前記第1表示オブジェクト及び/又は前記第2表示オブジェクトの表示位置を変更制御する表示制御手段と、複数の前記第1表示オブジェクトの各々と前記第2表示オブジェクトとの間の相対的な表示位置関係の合成値に応じて、前記第2表示オブジェクトに対応付けられた楽音の音高又は音色効果パラメータの制御値を決定する決定手段と、前記決定した楽音の音高又は音色効果パラメータの制御値に基づき楽音制御を実行する楽音制御手段とを具える。 The electronic music apparatus according to the present invention displays a screen including at least a first display object representing a virtual operator and a second display object associated with a tone pitch effect parameter relating to tone pitch or tone control. A display that detects a plurality of first display objects displayed at arbitrary positions on the screen and a user operation performed in the screen, and the detected user operation is predetermined; Determining means for determining whether or not the operation mode is, and when the detected user operation is a predetermined operation mode, a moving operation that continues in time according to an operation mode associated with the operation mode in advance A table for changing and controlling the display position of the first display object and / or the second display object so that the user operation is autonomously performed even if it is not continuously performed. And control means, in accordance with the combined value of the relative display position relationship between the with each of the plurality of the first display object second display object, the pitch of a musical tone associated with the second display object Alternatively, it comprises determining means for determining the control value of the tone color effect parameter, and tone control means for executing tone control based on the determined tone pitch or tone value parameter control value.

この発明によると、画面内で行なわれたユーザ操作が所定の操作態様である場合に、該操作態様に予め対応付けられた動作態様に従って時間的に継続する移動動作を前記ユーザ操作が継続的に行われていなくとも自律的に行うように、前記第1表示オブジェクト及び/又は前記第2表示オブジェクトの表示位置を変更制御する。そして、該自律的な移動動作を行う複数の前記第1表示オブジェクトの各々と第2表示オブジェクトとの間の相対的な表示位置関係の合成値に応じて、第2表示オブジェクトに対応付けられた楽音の音高又は音色効果パラメータの制御値を決定し、これらに基づき楽音を制御する。このようにして、ユーザ操作が継続的に行われていなくとも、自律的に移動するこれらの各オブジェクト間の複数の相対的な表示位置関係の合成値に従って楽音を制御するようにしたことから、ユーザは視覚的に楽しむことができるとともに、操作態様に応じて多様な楽音制御を行うことができる。 According to the present invention, when a user operation performed on the screen is a predetermined operation mode, the user operation continuously performs a moving operation that continues in time according to an operation mode previously associated with the operation mode. The display position of the first display object and / or the second display object is changed and controlled so as to be performed autonomously even if not performed. And it was matched with the 2nd display object according to the synthetic value of the relative display position relation between each of a plurality of said 1st display objects which perform this autonomous movement operation, and the 2nd display object. The control value of the tone pitch or tone color effect parameter is determined, and the tone is controlled based on these values. In this way, even if the user operation is not continuously performed, the musical sound is controlled according to the composite value of a plurality of relative display positional relationships between these objects that move autonomously. The user can enjoy visually and can perform various musical tone controls according to the operation mode.

本発明は装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。   The present invention can be constructed and implemented not only as a device invention but also as a method invention. Further, the present invention can be implemented in the form of a program of a processor such as a computer or a DSP, or can be implemented in the form of a storage medium storing such a program.

この発明によれば、ユーザ操作が継続的に行われていなくとも自律的に移動する各オブジェクト間の複数の相対的な表示位置関係の合成値に従って楽音を制御するようにしたことから、ユーザは視覚的に楽しむことができるとともに、操作態様に応じて多様な楽音制御を行うことができるようになる、という効果を奏する。
According to the present invention, the user controls the musical sound according to the composite value of the plurality of relative display positional relationships between the objects that move autonomously even if the user operation is not continuously performed. There is an effect that it can be enjoyed visually and various musical tone controls can be performed according to the operation mode.

以下、この発明の実施の形態を添付図面に従って詳細に説明する。   Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.

図1は、この発明に係る電子音楽装置の全体構成の一実施例を示したハード構成ブロック図である。本実施例に示す電子音楽装置は例えば電子楽器であって、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータによって制御される。CPU1は、この電子音楽装置全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してROM2、RAM3、検出回路4,5、表示回路6、音源・効果回路7、記憶装置8、通信インタフェース(I/F)9がそれぞれ接続されている。   FIG. 1 is a hardware configuration block diagram showing an embodiment of the overall configuration of an electronic music apparatus according to the present invention. The electronic music apparatus shown in this embodiment is, for example, an electronic musical instrument, and is controlled by a microcomputer including a microprocessor unit (CPU) 1, a read only memory (ROM) 2, and a random access memory (RAM) 3. The CPU 1 controls the operation of the entire electronic music apparatus. ROM 2, RAM 3, detection circuits 4 and 5, display circuit 6, sound source / effect circuit 7, storage device 8, and communication interface (I / F) 9 are connected to the CPU 1 via a data and address bus 1D. ing.

ROM2は、CPU1により実行あるいは参照される各種制御プログラムや各種データ等を格納する。RAM3は、CPU1が所定のプログラムを実行する際に発生する各種データなどを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを一時的に記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。演奏操作子4Aは、楽音の音高を選択するための複数の鍵を備えた例えば鍵盤等のようなものであって、各鍵に対応してキースイッチを有しており、この演奏操作子4A(鍵盤等)はユーザ自身の手弾きによるマニュアル演奏に使用することができるのは勿論のこと、音色の選択や音色効果パラメータ等を設定する手段などとして使用することもできる。検出回路4は、演奏操作子4Aの各鍵の押圧及び離鍵を検出することによって検出出力を生じる。なお、本明細書において、「音色」とはピアノやギターなどの一般的な単一の音色を示すことに限らず、1つの「音色」を複数の音色エレメントで構成する場合の所謂「音色エレメント」や、複数の単一の音色を組み合わせて1つの音色セットにした所謂「パフォーマンス」など、音色の1要素や複数の単一の音色からなる音色グループなどを含むものである。   The ROM 2 stores various control programs executed by or referred to by the CPU 1, various data, and the like. The RAM 3 is used as a working memory for temporarily storing various data generated when the CPU 1 executes a predetermined program, or as a memory for temporarily storing a currently executing program and related data. The A predetermined address area of the RAM 3 is assigned to each function and used as a register, flag, table, memory, or the like. The performance operator 4A is, for example, a keyboard provided with a plurality of keys for selecting the pitch of a musical tone, and has a key switch corresponding to each key. 4A (keyboard or the like) can be used not only for manual playing by the user's own playing but also as a means for selecting a timbre, setting a timbre effect parameter, and the like. The detection circuit 4 generates a detection output by detecting the pressing and release of each key of the performance operator 4A. In the present specification, the “tone” is not limited to a general single tone such as a piano or a guitar, but a so-called “tone element” in the case where one “tone” is composed of a plurality of tone elements. ”And a so-called“ performance ”in which a plurality of single timbres are combined into one timbre set, and so on, including a timbre group composed of one timbre element or a plurality of single timbres.

設定操作子(スイッチ等)5Aは、例えば演奏の際に使用する音色を選択する選択スイッチ、ボリューム、ピッチ、LFOなどの各種の音色効果パラメータをその操作量(例えば0〜128、-64〜+64など)に応じた分だけ制御する(言い換えるならば、楽音に効果を付与する際に用いられる各種音色効果に係る制御値を操作量に応じて決定する)、例えばモジュレーションホイール、ピッチベンドホイール、アフタータッチ、ノブ、スライダー、リボンコントローラなどの制御操作子、「楽音制御画面」(図2参照)を用いた音色効果パラメータの制御を行うための制御スイッチ等の各種の操作子を含んで構成される。なお、上記各制御操作子に対しては、ユーザが制御対象とする音色効果パラメータを任意に関連付けることができる。   The setting operation element (switch, etc.) 5A is a selection switch for selecting a timbre to be used for performance, for example, various timbre effect parameters such as volume, pitch, LFO and the like (for example, 0 to 128, -64 to + 64, etc. (in other words, control values related to various timbre effects used for applying effects to the musical sound are determined according to the operation amount), for example, modulation wheel, pitch bend wheel, after It is configured to include various operators such as control operators such as touch, knob, slider, ribbon controller, and control switches for controlling tone color effect parameters using the “musical tone control screen” (see FIG. 2). . Note that a timbre effect parameter to be controlled by the user can be arbitrarily associated with each control operator.

勿論、設定操作子5Aは上記した以外にも音高、音色、効果等を選択・設定・制御するための数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはディスプレイ6Aに表示された各種画面の位置を指定したり画面上に表示されたオブジェクトをクリック&ドラッグするためのポインタなどを操作するマウス(二次元ポインティング操作子又はオブジェクト操作子などと呼ぶ)等の各種操作子を含んでいてもよい。検出回路5は、上記設定操作子5Aの操作状態を検出し、その操作状態に応じたスイッチ情報等をデータ及びアドレスバス1Dを介してCPU1に出力する。   Of course, in addition to the above, the setting operator 5A is a numeric keypad for inputting numeric data and a keyboard for inputting character data for selecting / setting / controlling pitches, tones, effects, and the like, or various types displayed on the display 6A. Includes various controls such as a mouse (referred to as a two-dimensional pointing control or object control) that specifies the position of the screen and operates a pointer for clicking and dragging an object displayed on the screen. Also good. The detection circuit 5 detects the operation state of the setting operation element 5A, and outputs switch information and the like corresponding to the operation state to the CPU 1 via the data and address bus 1D.

表示回路6は例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに、「楽音制御画面」(図2参照)等の各種画面を表示するのは勿論のこと、ROM2や記憶装置8に記憶されている各種データあるいはCPU1の制御状態などを表示することができる。ユーザはディスプレイ6Aに表示されるこれらの各種情報を参照することで、演奏の際に使用する音色や曲の選択さらに音色効果パラメータの設定などを容易に行うことができる。なお、ディスプレイ6Aはタッチパネルであってよく、その場合には画面がタッチ操作されたことを検出する手段を具備してなることは言うまでもない。この場合、ディスプレイ6Aは所謂ソフトスイッチを具え、タッチパネルとしてマウス等と同様にディスプレイ6Aに表示された「楽音制御画面」の各オブジェクトの表示位置や形状などを変更制御できる二次元ポインティング操作子(オブジェクト操作子)を兼ねるものとなる。   The display circuit 6 displays various screens such as a “musical sound control screen” (see FIG. 2) on a display 6A composed of, for example, a liquid crystal display panel (LCD), a CRT or the like, as well as the ROM 2 and the storage device 8. Various data stored in the memory or the control state of the CPU 1 can be displayed. By referring to these various types of information displayed on the display 6A, the user can easily select a timbre and music to be used during performance and set a timbre effect parameter. It should be noted that the display 6A may be a touch panel, and in that case, it is needless to say that the display 6A includes means for detecting that the screen has been touched. In this case, the display 6A includes a so-called soft switch, and a two-dimensional pointing operator (object) that can change and control the display position and shape of each object of the “musical sound control screen” displayed on the display 6A as a mouse or the like as a touch panel. It also serves as an operator.

音源・効果回路7は複数のチャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた演奏情報を入力し、この演奏情報に基づいて楽音を合成し楽音信号を発生する。また、楽音を合成する際には、設定された音色効果パラメータ毎の制御値(パラメータ値)に基づいて種々の効果を付与することができるようになっている。こうした音源・効果回路7から発生される楽音信号は、アンプやスピーカなどを含むサウンドシステム7Aから発音される。音源・効果回路7とサウンドシステム7Aの構成には、従来のいかなる構成を用いてもよい。例えば、音源・効果回路7はFM、PCM、物理モデル、フォルマント合成等の各種楽音合成方式のいずれを採用してもよく、また専用のハードウェアで構成してもよいし、CPU1によるソフトウェア処理で構成してもよい。   The tone generator / effect circuit 7 can simultaneously generate music signals on a plurality of channels, inputs data and performance information given via the address bus 1D, synthesizes music based on the performance information, and generates a music signal. Is generated. Further, when synthesizing a musical sound, various effects can be applied based on the control value (parameter value) for each set tone color effect parameter. The tone signal generated from the sound source / effect circuit 7 is generated from a sound system 7A including an amplifier and a speaker. Any conventional configuration may be used for the configuration of the sound source / effect circuit 7 and the sound system 7A. For example, the tone generator / effect circuit 7 may employ any of various tone synthesis methods such as FM, PCM, physical model, formant synthesis, etc., or may be configured with dedicated hardware, or by software processing by the CPU 1. It may be configured.

記憶装置8は、例えば音色効果パラメータセットなどの各種データの他、CPU1が実行する各種制御プログラム等を記憶する。なお、上述したROM2に制御プログラムが記憶されていない場合、この記憶装置8(例えばハードディスク)に制御プログラムを記憶させておき、それをRAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、記憶装置8はハードディスク(HD)に限られず、フレキシブルディスク(FD)、コンパクトディスク(CD‐ROM・CD‐RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Disk)等の様々な形態の記憶媒体を利用する記憶装置であればどのようなものであってもよい。あるいは、フラッシュメモリなどの半導体メモリであってもよい。   The storage device 8 stores, for example, various control programs executed by the CPU 1 in addition to various data such as a timbre effect parameter set. When the control program is not stored in the ROM 2 described above, the control program is stored in the storage device 8 (for example, a hard disk) and is read into the RAM 3 to store the control program in the ROM 2. It is possible to cause the CPU 1 to perform the same operation. In this way, control programs can be easily added and upgraded. The storage device 8 is not limited to a hard disk (HD), but may be a flexible disk (FD), a compact disk (CD-ROM / CD-RAM), a magneto-optical disk (MO), or a DVD (Digital Versatile Disk). Any storage device may be used as long as it uses a storage medium in the form. Alternatively, a semiconductor memory such as a flash memory may be used.

通信インタフェース(I/F)9は、当該装置と図示しない外部機器との間で制御プログラムやデータなどの各種情報を送受信するためのインタフェースである。この通信インタフェース7は、例えばMIDIインタフェース,LAN,インターネット,電話回線等であってよく、また有線あるいは無線のものいずれかでなく双方を具えていてよい。   A communication interface (I / F) 9 is an interface for transmitting and receiving various information such as a control program and data between the apparatus and an external device (not shown). The communication interface 7 may be, for example, a MIDI interface, a LAN, the Internet, a telephone line, or the like, and may include both wired and wireless ones.

なお、上述した電子音楽装置において、演奏操作子4Aは鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、電子音楽装置は演奏操作子4Aやディスプレイ6Aあるいは音源・効果回路7などを1つの装置本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものであってもよいことは言うまでもない。さらに、本発明に係る電子音楽装置は電子楽器に限らず、ミキサやパーソナルコンピュータ、携帯電話等の携帯型通信端末、またカラオケ装置やゲーム装置など、楽音を制御できるものであればどのような形態の装置・機器であってもよい。   In the electronic music apparatus described above, the performance operator 4A is not limited to the form of a keyboard instrument, but may be any form such as a stringed instrument, a wind instrument, or a percussion instrument. In addition, the electronic music apparatus is not limited to one in which the performance operator 4A, the display 6A, the sound source / effect circuit 7 and the like are built in one apparatus body, but each is configured separately, and communication means such as a MIDI interface and various networks are provided. Needless to say, the apparatus may be configured to be connected to each other. Furthermore, the electronic music apparatus according to the present invention is not limited to an electronic musical instrument, and any form can be used as long as it can control musical sounds, such as a mixer, a personal computer, a portable communication terminal such as a mobile phone, a karaoke apparatus, or a game apparatus. The apparatus / equipment may be used.

次に、ディスプレイ6Aに表示する「楽音制御画面」について説明する。図2は、「楽音制御画面」の一実施例を示す概念図である。該「楽音制御画面」は楽音制御のためのユーザインタフェースであって、複数のソースオブジェクトOS(第1表示オブジェクト)と複数のデスティネーションオブジェクトOD(第2表示オブジェクト)とを同時に表示可能である。ここでは一例として、2つのソースオブジェクトOS(S1,S2)と3つのデスティネーションオブジェクトOD(D1〜D3)を表示した場合を示している。また、ここではソースオブジェクトOSを制御操作子に対応付けておき、制御操作子が操作された場合にはレールオブジェクトR上の適宜の位置にのみ移動する一方で、オブジェクト操作子が操作された場合には画面内の適宜の位置に自由に移動するものを例に示した。   Next, the “musical sound control screen” displayed on the display 6A will be described. FIG. 2 is a conceptual diagram showing an example of a “musical sound control screen”. The “musical sound control screen” is a user interface for musical sound control, and can simultaneously display a plurality of source objects OS (first display objects) and a plurality of destination objects OD (second display objects). Here, as an example, a case where two source objects OS (S1, S2) and three destination objects OD (D1-D3) are displayed is shown. Here, the source object OS is associated with the control operator, and when the control operator is operated, it moves only to an appropriate position on the rail object R, while the object operator is operated. An example is shown in which is freely moved to an appropriate position in the screen.

ソースオブジェクトOSは仮想的な操作子であって、各種の音色効果パラメータを制御することが可能な制御ソースを表し、例えばモジュレーションホイール、ピッチベンドホイール、アフタータッチ、ノブ、スライダー、リボンコントローラなどの制御操作子が制御ソースとして対応付けられる。一方、デスティネーションオブジェクトODは、ユーザ操作に応じて制御値を決定する制御対象の音色効果パラメータを表すもので、例えばボリューム、ピッチ、LFO、ビブラートなどの楽音に付与することが可能な各種の音色効果に関するパラメータのいずれかと対応付けられる。   The source object OS is a virtual operator and represents a control source capable of controlling various tone effect parameters. For example, control operations such as a modulation wheel, a pitch bend wheel, an after touch, a knob, a slider, and a ribbon controller. A child is associated as a control source. On the other hand, the destination object OD represents a timbre effect parameter to be controlled that determines a control value according to a user operation. For example, various timbres that can be added to a musical tone such as volume, pitch, LFO, and vibrato. It is associated with one of the parameters related to the effect.

レールオブジェクトRはソースオブジェクトOSに付随されるものであって、制御操作子の操作に応じて対応付けられているソースオブジェクトOSを画面上で移動表示させる際の軌道を規定すると共に、制御操作子(ソースオブジェクトOS)と該制御操作子の操作に応じて制御値を決定する対象の音色効果パラメータ(デスティネーションオブジェクトOD)とを関連付ける。すなわち、制御操作子の操作に応じてソースオブジェクトOSはレールオブジェクトR上を移動するように表示制御されるようになっており、制御操作子の操作量が「最小(min)」(例えば0,-64など)の状態であるときにレール始点に位置するように、また操作量が「最大(max)」(例えば128,+64など)の状態であるときにレール終点に位置するように、制御操作子の時々の操作量の増減に応じた分だけレールオブジェクトR上を移動するようにしてソースオブジェクトOSの表示制御がなされる(そのようにレールオブジェクトRの線分上の所定位置と制御操作子の操作量(例えば、0〜128,-64〜+64など)との対応関係が形成されている)。レールオブジェクトRは表示してもよいし表示しなくてもよい。   The rail object R is attached to the source object OS. The rail object R defines a trajectory when the source object OS associated with the control operation element is moved and displayed on the screen. (Source object OS) is associated with a timbre effect parameter (destination object OD) for which a control value is determined according to the operation of the control operator. That is, the source object OS is displayed and controlled so as to move on the rail object R according to the operation of the control operator, and the operation amount of the control operator is “minimum” (for example, 0, -64) so that it is located at the rail start point, and when the operation amount is "max" (for example, 128, +64, etc.), it is located at the rail end point. The display control of the source object OS is performed by moving on the rail object R by an amount corresponding to an increase or decrease in the amount of operation of the control operator from time to time (such as a predetermined position and control on the line segment of the rail object R). A correspondence relationship with the operation amount of the operator (for example, 0 to 128, -64 to +64, etc.) is formed). The rail object R may or may not be displayed.

なお、「楽音制御画面」に表示する対象のソースオブジェクトOSとデスティネーションオブジェクトODはユーザが任意に選択することができてよく、またユーザはソースオブジェクトOS、デスティネーションオブジェクトODのそれぞれについて初期表示位置を任意に指定することができる。さらに、ユーザはレールオブジェクトRの向きや線分長さを調整することもできる。
なお、ソースオブジェクトOSの表示態様としては、図示したような円状の図形表示に限らず多角形や星型等の任意形状の図形表示であってもよいし、制御操作子の形状を模したアイコンなどの図形表示であってもよい。また、図示の例では省略したが、図形表示だけでなくソースオブジェクトOSに対応付けられている制御操作子の名称やその略称、記号などを表示するようにしてもよい。さらに、複数のソースオブジェクトOSを同時に表示するような場合には、ソースオブジェクトOSごとに色や形状などの表示態様を異ならせて表示するとよい。デスティネーションオブジェクトODについてもソースオブジェクトOSと同様に適宜の形状で表示してよいし、またデスティネーションオブジェクトODに対応付けられている音色効果パラメータの名称等を表示するようにしてもよい。
Note that the target source object OS and the destination object OD to be displayed on the “musical sound control screen” may be arbitrarily selected by the user, and the user can select an initial display position for each of the source object OS and the destination object OD. Can be specified arbitrarily. Further, the user can adjust the direction and the line segment length of the rail object R.
The display mode of the source object OS is not limited to a circular graphic display as shown in the figure, and may be a graphic display of an arbitrary shape such as a polygon or a star, or a shape of a control operator. It may be a graphic display such as an icon. Although omitted in the illustrated example, not only the graphic display but also the names of control operators associated with the source object OS, their abbreviations, and symbols may be displayed. Further, when a plurality of source objects OS are displayed at the same time, the display modes such as colors and shapes may be different for each source object OS. As with the source object OS, the destination object OD may be displayed in an appropriate shape, or the name of the timbre effect parameter associated with the destination object OD may be displayed.

ここで、「楽音制御画面」を用いた楽音制御について説明する。「楽音制御画面」における楽音制御のためのユーザ操作としては、制御操作子を操作する場合と、マウス等の二次元ポインティング操作子(オブジェクト操作子)あるいはユーザタッチ操作により画面上のオブジェクトを直接操作する場合とがある。制御操作子を操作する場合、操作された制御操作子に対応するソースオブジェクトOSがレールオブジェクトR上を移動する。この移動に応じて変化するソースオブジェクトOSの表示位置とデスティネーションオブジェクトODの表示位置との距離(表示間隔)に対応して、音色効果パラメータの制御値が決定され楽音を制御する。   Here, the musical tone control using the “musical tone control screen” will be described. User operations for musical tone control on the “musical sound control screen” include direct operation of objects on the screen by operating a control operator and two-dimensional pointing operator (object operator) such as a mouse or user touch operation. There is a case to do. When operating the control operator, the source object OS corresponding to the operated control operator moves on the rail object R. Corresponding to the distance (display interval) between the display position of the source object OS and the display position of the destination object OD that change according to this movement, the control value of the timbre effect parameter is determined to control the tone.

一方、オブジェクト操作子あるいはユーザタッチ操作により画面上のオブジェクトを直接操作する場合、1乃至複数のソースオブジェクトOSをそれぞれのレールオブジェクトRから外して適宜の位置に移動させることができる。その際に、ユーザ操作態様(ジェスチャ)に従って1乃至複数のソースオブジェクトOSが自動的に動かされ、このソースオブジェクトOSの自動的な動きに応じて変化するソースオブジェクトOSの表示位置とデスティネーションオブジェクトODの表示位置との距離(表示間隔)に対応して、音色効果パラメータの制御値が決定され楽音を制御するようになっている。このように、ソースオブジェクトOSはレールオブジェクトR上に限らず、ユーザによる操作態様(ジェスチャと呼ぶ)によって決まる種々の特性に従って自動的に画面内を自由に移動しうる。   On the other hand, when an object on the screen is directly operated by an object operator or a user touch operation, one or more source objects OS can be removed from each rail object R and moved to an appropriate position. At that time, one or more source objects OS are automatically moved according to the user operation mode (gesture), and the display position of the source object OS and the destination object OD that change according to the automatic movement of the source object OS. The control value of the timbre effect parameter is determined in accordance with the distance (display interval) to the display position, and the tone is controlled. As described above, the source object OS is not limited to the rail object R, and can automatically move freely in the screen according to various characteristics determined by the user's operation mode (called a gesture).

また、図2には、指定したソースオブジェクトOSを素早くドラッグするジェスチャが行われた場合の移動表示の一例を示している。この図2から理解できるように、ユーザにより指定された上で例えば画面左上から右下へと素早くドラッグするジェスチャ(自律的慣性運動を指示するジェスチャ)が行われた1つのソースオブジェクトOS(図では斜線を施したS1)は、該ソースオブジェクトOSに付随されるレールオブジェクトR(図では点線で示す)から一時的に外れて、ドラッグ操作が引き続き行われていなくてもそのドラッグされた方向(図中において実線で示す矢印の向き)にそのまま慣性で動き続けるようにして移動表示される。この際に、自律的に移動するソースオブジェクトOSの進行方向に他のソースオブジェクトやデスティネーションオブジェクトODがありそれらが障害物となる場合、あるいは画面の淵(端)いっぱいにまで移動した場合には、障害物や画面の淵(端)との接触により跳ね返るようにしてその進行速度や進行方向を変えて自律的移動を続ける(図中において二点鎖線で示す)。これは後述する他のジェスチャによる自律的移動(図3(A)参照)についても同様である。   FIG. 2 shows an example of movement display when a gesture for quickly dragging the designated source object OS is performed. As can be understood from FIG. 2, a single source object OS (in the figure, a gesture in which an autonomous inertia movement is indicated) is performed by quickly dragging from the upper left to the lower right of the screen, for example. The slanted line S1) temporarily deviates from the rail object R (indicated by a dotted line in the figure) attached to the source object OS, and the dragged direction (see FIG. (In the direction of the arrow indicated by the solid line), the display is moved and displayed so as to continue to move with inertia. At this time, when there are other source objects and destination objects OD in the traveling direction of the source object OS that moves autonomously and they become obstacles, or when they move to the full edge (edge) of the screen Then, the robot moves autonomously by changing its traveling speed and traveling direction so that it bounces upon contact with an obstacle or a heel (edge) of the screen (indicated by a two-dot chain line in the figure). The same applies to autonomous movement (see FIG. 3A) by other gestures described later.

レールオブジェクトRから一時的に外されたソースオブジェクトOSについては、制御操作子(ソースオブジェクトOS)と該制御操作子の操作に応じて制御値を決定する音色効果パラメータ(デスティネーションオブジェクトOD)との関連付けが一時的に解除される。そして、前記慣性の動きに応じて変化するソースオブジェクトOSの表示位置と各デスティネーションオブジェクトODの表示位置との距離(表示間隔)に応じて音色効果パラメータの制御値が決定されるようになり、それに基づき楽音制御が行われるようになっている(詳しくは後述する)。   For the source object OS temporarily removed from the rail object R, a control operator (source object OS) and a timbre effect parameter (destination object OD) that determines a control value in accordance with the operation of the control operator. The association is temporarily released. Then, the control value of the timbre effect parameter is determined according to the distance (display interval) between the display position of the source object OS and the display position of each destination object OD that changes according to the movement of inertia. Musical sound control is performed based on this (details will be described later).

なお、デスティネーションオブジェクトODには、図示したような有効エリアKAが配置されていてよい。この有効エリアKAは、ソースオブジェクトOSによる該エリアを有するデスティネーションオブジェクトODに対応付けられている音色効果パラメータの制御を有効にする又は無効にする(つまりは距離に応じて決定される制御値を反映する/反映しない)境界・範囲を表すものであって、ユーザが視認できるように画面上に表示してもよいし表示しなくてもよい。すなわち、該有効エリアKA外にソースオブジェクトOSが位置している場合には、そのデスティネーションオブジェクトODに対応付けられている音色効果パラメータの制御が有効とされずに制御値が反映されない一方で、該有効エリアKA内にソースオブジェクトOSが位置している場合には、そのデスティネーションオブジェクトODに対応付けられている音色効果パラメータの制御が有効とされ制御値が反映されるようにしてよい。   Note that an effective area KA as illustrated may be arranged in the destination object OD. The effective area KA enables or disables control of the timbre effect parameter associated with the destination object OD having the area by the source object OS (that is, a control value determined according to the distance). It represents the boundary / range (reflected / not reflected) and may or may not be displayed on the screen so that the user can visually recognize it. That is, when the source object OS is located outside the valid area KA, the control of the timbre effect parameter associated with the destination object OD is not validated and the control value is not reflected. When the source object OS is located in the valid area KA, the control of the timbre effect parameter associated with the destination object OD may be validated and the control value may be reflected.

なお、ジェスチャによってレールオブジェクトRから一時的に外されたソースオブジェクトOSは、対応付けられている制御操作子が操作されることに応じてレールオブジェクトR上の適宜の位置に戻る(複数のソースオブジェクOSが同時に自動的に動かされた場合には、そのうちのいずれかに対応する制御操作子の1つが操作されることに応じて全てのソースオブジェクトOSが該当のレールオブジェクトR上に戻る)。
なお、デスティネーションオブジェクトODが有効エリアKAを持たず画面上の複数のソースオブジェクトOS全てがそのデスティネーションオブジェクトODに影響を及ぼす場合、あるいはデスティネーションオブジェクトODが有効エリアKAを持ちその有効エリアKA内にソースオブジェクトOSが複数ある場合、デスティネーションオブジェクトOD毎に各ソースオブジェクトOSと当該デスティネーションオブジェクトODとの距離に応じて決定される制御値を全て加算したものを楽音制御のための制御値として上記動きにあわせて都度決定する。
The source object OS temporarily removed from the rail object R by the gesture returns to an appropriate position on the rail object R according to the operation of the associated control operator (a plurality of source objects When the OS is automatically moved simultaneously, all the source objects OS return to the corresponding rail object R in response to one of the control operators corresponding to one of them being operated).
In addition, when the destination object OD does not have the effective area KA and all of the plurality of source objects OS on the screen affect the destination object OD, or the destination object OD has the effective area KA and within the effective area KA. When there are a plurality of source objects OS, a control value for musical tone control is obtained by adding all control values determined according to the distance between each source object OS and the destination object OD for each destination object OD. Decide each time according to the above movement.

ソースオブジェクトOSを自動的に動かし楽音制御を行うためのジェスチャとしては、上記したドラッグ操作以外にも様々なものがある。そこで、ここでは多様なジェスチャに伴う楽音制御の具体例を図3に示す。図3は、多様なジェスチャとそれに伴って実行されるソースオブジェクトの動きを説明するための概念図である。ただし、ここではレールオブジェクトRの記載を省略してある。   There are various gestures for automatically moving the source object OS and performing musical tone control in addition to the drag operation described above. Accordingly, FIG. 3 shows a specific example of musical tone control associated with various gestures. FIG. 3 is a conceptual diagram for explaining various gestures and movements of a source object executed in association therewith. However, the rail object R is not shown here.

第1に、図3(A)の左上に示すように、複数のソースオブジェクトを指定した上で、さらに画面上の任意の点(引力点:指定したソースオブジェクトのうちの1つに設定してもよい)を指示してそこからしばらく(例えば数秒間)は動かさないジェスチャが行われた場合には、全てのソースオブジェクトがその指示した点に向かって引き寄せられるように移動する。
第2に、図3(A)の右上に示すように、複数のソースオブジェクトを指定した上で、さらに画面上の任意の点(斥力点:指定したソースオブジェクトのうちの1つに設定してもよい)を指示してそこからしばらく(例えば数秒間)は動かさないジェスチャが行われた場合には、指定された全てのソースオブジェクトがその指示した点から反発するように移動する。
First, as shown in the upper left of FIG. 3A, after specifying a plurality of source objects, an arbitrary point on the screen (attraction point: set to one of the specified source objects) If a gesture is made that does not move for a while (for example, for a few seconds), all the source objects are moved so as to be drawn toward the designated point.
Second, as shown in the upper right of FIG. 3 (A), after specifying a plurality of source objects, an arbitrary point on the screen (repulsive point: set to one of the specified source objects). If a gesture is performed that does not move for a while (for example, for a few seconds), all the designated source objects move so as to repel from the point indicated.

第3に、図3(A)の左下に示すように、1つのソースオブジェクトS1を指定した上で、それをデスティネーションオブジェクトD1との間で往復させるようにしてドラッグするジェスチャ(自律的振動運動を指示するジェスチャ)が行われた場合には、ドラッグ操作が引き続き行われていなくてもドラッグされたソースオブジェクトがドラッグ開始位置とデスティネーションオブジェクトD1との間を繰り返し往復するように移動する。
第4に、図3(A)の右下に示すように、1つのソースオブジェクトS1を指定した上で、それをデスティネーションオブジェクトD1の周りを囲むようにしてドラッグするジェスチャ(自律的回転運動を指示するジェスチャ)が行われた場合には、ドラッグ操作が引き続き行われていなくてもドラッグされたソースオブジェクトがデスティネーションオブジェクトD1の周囲を繰り返し回るように移動する。
Third, as shown in the lower left of FIG. 3 (A), a gesture (autonomous vibration motion) in which one source object S1 is designated and dragged so as to reciprocate with the destination object D1. Is performed, the dragged source object moves so as to reciprocate repeatedly between the drag start position and the destination object D1, even if the drag operation is not continued.
Fourthly, as shown in the lower right of FIG. 3A, a gesture (instructing an autonomous rotational movement) is specified in which one source object S1 is designated and then dragged so as to surround the destination object D1. When the gesture is performed, the dragged source object moves around the destination object D1 repeatedly even if the drag operation is not continuously performed.

第5に、図3(B)の左に示すように、オブジェクトが表示されていない画面上の特定箇所において画面上下方向にドラッグするジェスチャが行われた場合には、全てのソースオブジェクトがまるで重力に従って画面下方に落下する(あるいは逆らって画面上方に上昇する)ように移動する。図示の例では画面上から下へとドラッグされており、ソースオブジェクトS1,S2が上から下へと落下する動きとなる。
第6に、図3(B)の右に示すように、オブジェクトが表示されていない画面上の特定箇所において画面左右方向にドラッグするジェスチャが行われた場合には、全てのソースオブジェクトがまるで風に従って画面を左右方向に流れるように移動する。図示の例では画面右から左に向かってドラッグされており、ソースオブジェクトS1,S2も画面右から左へと流れる動きとなる。
なお、この場合には画面右隅などに、ジェスチャに従う特性として画面内のソースオブジェクトOSに対して仮想の重力や風が影響していることを表す単純なアイコンを表示したり、仮想した重力や風の方向や大きさによって表示態様が変わる矢印などを含む図形を表示したりするようにしてよい。勿論、文字表示であってもよい。また、仮想した重力や風の方向や大きさによって画面の背景の色を変えたり、グラデーションをかけたり、濃淡の模様が波のように流れる表示を行うようにしてもよい。
Fifth, as shown on the left side of FIG. 3B, when a gesture of dragging in the vertical direction of the screen is performed at a specific location on the screen where no object is displayed, all the source objects are like gravity. To move downward so that it falls down (or rises up against the screen). In the illustrated example, dragging from the top to the bottom of the screen causes the source objects S1 and S2 to fall from top to bottom.
Sixth, as shown on the right side of FIG. 3B, when a gesture of dragging in the horizontal direction of the screen is performed at a specific location on the screen where no object is displayed, all the source objects are like wind. To move the screen to the left and right. In the illustrated example, dragging from the right to the left of the screen causes the source objects S1 and S2 to move from the right to the left of the screen.
In this case, a simple icon indicating that virtual gravity or wind has an influence on the source object OS in the screen as a characteristic according to the gesture is displayed in the right corner of the screen or the like. A figure including an arrow whose display mode changes depending on the direction and size of the wind may be displayed. Of course, character display may be used. Further, the background color of the screen may be changed according to virtual gravity or the direction and size of the wind, a gradation may be applied, and a display in which a shading pattern flows like a wave may be performed.

次に、本実施例に示す電子音楽装置において、「楽音制御画面」上におけるユーザの操作態様(ジェスチャ)に応じて自動的にソースオブジェクトOSを移動して音色効果パラメータの制御値を決定し、これに基づき楽音を制御する処理について説明する。図4は、「メイン処理」の一実施例を示すフローチャートである。当該処理は、本電子音楽装置の電源オンに応じて開始され、電源オフに応じて終了される。   Next, in the electronic music apparatus shown in the present embodiment, the source object OS is automatically moved according to the user's operation mode (gesture) on the “musical sound control screen” to determine the control value of the timbre effect parameter, Based on this, a process for controlling a musical sound will be described. FIG. 4 is a flowchart showing an example of “main processing”. This process starts when the electronic music apparatus is turned on and ends when the power is turned off.

ステップS1は、初期設定を行う。例えば初期設定として「楽音制御画面」をディスプレイ6A上に表示する。ステップS2は、オブジェクト追加/削除を実行する。ソースオブジェクトが追加された場合、制御操作子を対応付ける。デスティネーションオブジェクトが追加された場合、音色効果パラメータを対応付ける。また、ソースオブジェクト及びデスティネーションオブジェクトに対しそれらが有する仮想の物理特性として、質量、摩擦や抵抗などに相当する量、跳ね返り易さや滑りやすさに相当する量を割り当てると共に、初速度にゼロを設定する(つまりは、オブジェクト毎にそうした特性パラメータを記憶しておく)。さらに、オブジェクト追加/削除に応じて「楽音制御画面」を更新する。   Step S1 performs initial setting. For example, a “musical sound control screen” is displayed on the display 6A as an initial setting. In step S2, object addition / deletion is executed. When a source object is added, associate a control operator. When a destination object is added, a timbre effect parameter is associated. In addition, the virtual physical properties of the source object and destination object are assigned an amount equivalent to mass, friction, resistance, etc., an amount equivalent to rebound or slipperiness, and set the initial speed to zero. (That is, memorize such characteristic parameters for each object). Furthermore, the “musical sound control screen” is updated according to the object addition / deletion.

ステップS3は、オブジェクトの直接操作に基づく処理を実行する。ここで、オブジェクトの直接操作とは上記した制御操作子の操作ではなく二次元ポインティング操作子(オブジェクト操作子)の操作による例えばクリック&ドラッグ操作等(ただしジェスチャにあたる操作を除く)であって、ソースオブジェクト,レールオブジェクト,デスティネーションオブジェクトの各オブジェクトを直接指定してそれらの移動・変形操作を行うことである。この場合には、オブジェクト操作子の操作に応じて「楽音制御画面」に表示されている各オブジェクトの表示を更新する。   Step S3 executes processing based on the direct manipulation of the object. Here, the direct operation of the object is not a control operation described above, but a click and drag operation (excluding an operation corresponding to a gesture) by a two-dimensional pointing operation (object operation), for example. The object, rail object, and destination object are directly specified and their movement / deformation operations are performed. In this case, the display of each object displayed on the “musical sound control screen” is updated according to the operation of the object operator.

ステップS4は、引力点/斥力点の設定処理を実行する。ステップS5は、空間パラメータの設定処理を実行する。ステップS6は、ジェスチャ処理を実行する。ステップS7は、オブジェクト自律的移動処理を実行する。ステップS8は、楽音生成処理を実行する。上記ステップS4〜S8に記載した各処理の詳細な説明については後述する(図5〜図9参照)。   In step S4, an attractive point / repulsive point setting process is executed. In step S5, a spatial parameter setting process is executed. Step S6 executes gesture processing. Step S7 executes an object autonomous movement process. In step S8, a tone generation process is executed. Detailed description of each process described in steps S4 to S8 will be described later (see FIGS. 5 to 9).

図5は、「引力点/斥力点の設定処理」(図4のステップS4参照)の一実施例を示すフローチャートである。ステップS21は、オブジェクトの無い平面上の一点がタッチされているか否かを判定する。オブジェクトの無い平面上の一点がタッチされていないと判定した場合には(ステップS21のno)、ステップS23の処理へジャンプする。オブジェクトの無い画面上の一点がタッチされていると判定した場合には(ステップS21のyes)、タッチされている画面上の点を引力点に設定する。引力点が設定された場合、この点が指定されている間は、全てのソースオブジェクトはこの点に向かう方向に所定の大きさの力を受けるようにしてオブジェクト位置更新に反映される(図3(A)左上参照)。   FIG. 5 is a flowchart showing an example of “attraction / repulsion point setting processing” (see step S4 in FIG. 4). In step S21, it is determined whether or not a point on the plane having no object is touched. If it is determined that one point on the plane having no object is not touched (no in step S21), the process jumps to the process in step S23. If it is determined that a point on the screen without an object is touched (yes in step S21), the point on the touched screen is set as an attractive point. When an attractive point is set, while this point is specified, all source objects receive a predetermined amount of force in the direction toward this point and are reflected in the object position update (FIG. 3). (A) Refer to the upper left).

ステップS23は、オブジェクトの無い画面上の所定距離以内に近接した二点がタッチされているか否かを判定する。オブジェクトの無い画面上の所定距離以内に近接した二点がタッチされていないと判定した場合には(ステップS23のno)、当該処理を終了する。オブジェクトの無い画面上の所定距離以内に近接した二点がタッチされていると判定した場合には(ステップS23のyes)、タッチされている二点の中点を斥力点に設定する。斥力点が設定された場合、この点が指定されている間については、全てのソースオブジェクトはこの点から離れる方向に所定の大きさの力を受けるようにしてオブジェクト位置更新に反映される(図3(A)右上参照)。   In step S23, it is determined whether or not two points that are close to each other within a predetermined distance on the screen having no object are touched. If it is determined that two points that are close within a predetermined distance on the screen without an object are not touched (no in step S23), the process ends. If it is determined that two points that are close within a predetermined distance on the screen without an object are touched (yes in step S23), the midpoint of the two touched points is set as a repulsive point. When a repulsive force point is set, while this point is specified, all source objects are reflected in the object position update so as to receive a predetermined amount of force in a direction away from this point (see FIG. 3 (A) See upper right).

図6は、「空間パラメータの設定処理」(図4のステップS5参照)の一実施例を示すフローチャートである。ステップS31は、ユーザ操作に応じて摩擦や空気抵抗の係数の属性を設定する。この属性設定により、オブジェクト移動方向に対する抗力として画面内の仮想空間全体で一つの抵抗パラメータが定まる。ステップS32は、ユーザ操作に応じて、仮想空間内の重力のオン/オフ及び重力の強さの属性を設定する。この属性設定により、画面内の仮想空間における垂直方向に働く力として仮想空間全体で一つの重力パラメータが定まる。ステップS43は、ユーザ操作に応じて、仮想空間内の風のオン/オフ及び風の吹く向き、さらには風の強さの属性を設定する。この属性設定により、画面内の仮想空間における水平方向に働く力として仮想空間全体で一つの風パラメータが定まる。ステップS44は、前記設定した各属性値に応じて画面上の背景表示を更新する(図3(B)参照)。   FIG. 6 is a flowchart showing an example of “spatial parameter setting processing” (see step S5 in FIG. 4). In step S31, an attribute of a coefficient of friction or air resistance is set according to a user operation. With this attribute setting, one resistance parameter is determined in the entire virtual space in the screen as a drag against the object moving direction. In step S32, attributes of gravity on / off and gravity strength in the virtual space are set in accordance with a user operation. By this attribute setting, one gravity parameter is determined in the entire virtual space as a force acting in the vertical direction in the virtual space in the screen. In step S43, on / off of the wind in the virtual space, the direction in which the wind blows, and further the wind strength attribute are set according to the user operation. With this attribute setting, one wind parameter is determined in the entire virtual space as a force acting in the horizontal direction in the virtual space in the screen. In step S44, the background display on the screen is updated in accordance with the set attribute values (see FIG. 3B).

図7は、「ジェスチャ処理」(図4のステップS6参照)の一実施例を示すフローチャートである。ステップS41は、自律的回転運動を指示する操作が行われたソースオブジェクトがあるか否かを判定する。自律的回転運動を指示する操作が行われたソースオブジェクトがあると判定した場合には(ステップS41のyes)、操作されたオブジェクトを自律的回転運動対象に設定し、向心力係数や初速度などのパラメータを割り当てる(ステップS42)。具体的には、所定時間前から直近までの操作中に、回転操作が連続して3回以上行われていたら、自律的回転運動が指示されたと判定する。その操作から回転半径に対応して向心力と初速度を求め、初速度に応じた移動開始以降において向心力がそのオブジェクトにかかりオブジェクト自律的移動に反映される(図3(A)右下参照)。   FIG. 7 is a flowchart showing an example of “gesture processing” (see step S6 in FIG. 4). In step S41, it is determined whether there is a source object on which an operation for instructing an autonomous rotational motion is performed. If it is determined that there is a source object for which an operation for instructing autonomous rotational motion has been performed (yes in step S41), the operated object is set as an autonomous rotational motion target, and the centripetal force coefficient, initial velocity, etc. A parameter is assigned (step S42). Specifically, it is determined that an autonomous rotational motion has been instructed if the rotational operation is continuously performed three times or more during the operation from a predetermined time before to the latest. From the operation, the centripetal force and the initial speed are obtained corresponding to the turning radius, and the centripetal force is applied to the object after the start of the movement according to the initial speed and is reflected in the object autonomous movement (see the lower right in FIG. 3A).

ステップS43は、自律的振動運動を指示する操作が行われたソースオブジェクトがあるか否かを判定する。自律的振動運動を指示する操作が行われたソースオブジェクトがあると判定した場合には(ステップS43のyes)、操作されたオブジェクトを自律的振動運動対象に設定し、往復範囲や初速度などのパラメータを割り当てる(ステップS44)。例えば所定時間前から直近までの操作中に、往復振動操作が連続して3回以上行われていたら自律的振動運動が指示されたと判定する。その操作から進行方向に対する効力係数と初速度を求め、初速度に応じた移動開始以降においては効力係数に応じた効力がそのオブジェクトにかかりオブジェクト自律的移動に反映する(図3(A)左下参照)。   In step S43, it is determined whether there is a source object on which an operation for instructing autonomous vibration motion is performed. When it is determined that there is a source object for which an operation for instructing autonomous vibration motion is performed (yes in step S43), the operated object is set as an autonomous vibration motion target, and a reciprocal range, initial speed, and the like are set. A parameter is assigned (step S44). For example, if the reciprocating vibration operation is continuously performed three times or more during the operation from a predetermined time before to the latest, it is determined that the autonomous vibration motion is instructed. From the operation, the effectiveness coefficient and the initial speed for the traveling direction are obtained, and after the start of movement according to the initial speed, the effect according to the efficiency coefficient is applied to the object and reflected in the object autonomous movement (see the lower left of FIG. 3A). ).

ステップS45は、自律的慣性運動を指示する操作が行われたソースオブジェクトがあるか否かを判定する。自律的慣性運動を指示する操作が行われたソースオブジェクトがあると判定した場合には(ステップS45のyes)、操作されたオブジェクトを自律的慣性運動対象に設定し、初速度などのパラメータを割り当てる(ステップS46)。具体的には、直近にドラッグ操作を止めて指やポインタ等から放された操作が行われており、そのときの単位時間当たりの移動量が所定値以上であったら、自律的慣性運動が指示されたと判定する。また、その操作から初速度を求め、オブジェクト自律的移動に反映する(図2参照)。   In step S45, it is determined whether there is a source object on which an operation for instructing an autonomous inertia movement is performed. If it is determined that there is a source object for which an operation for instructing an autonomous inertia motion has been performed (yes in step S45), the operated object is set as an autonomous inertia motion target, and parameters such as initial velocity are assigned. (Step S46). Specifically, if the drag operation has been stopped most recently and the finger or pointer is released, and if the amount of movement per unit time is greater than or equal to a predetermined value, autonomous inertial motion is indicated. It is determined that Further, the initial speed is obtained from the operation and reflected in the autonomous movement of the object (see FIG. 2).

上記いずれの運動をも指示する操作がなされていない場合には(ステップS41,S43,S45のいずれもがno)、上記ステップS42,S44,S46のいずれの処理も行うことなく、ステップS47の処理へ行く。ステップS47は、上記いずれかの運動に従って表示更新されているオブジェクトのうちタッチされたオブジェクトがある場合、そのオブジェクトを各自律的動作対象から除外する。   If the operation for instructing any of the above movements has not been performed (no in steps S41, S43, S45), the process of step S47 is performed without performing any of the processes of steps S42, S44, S46. Go to. In step S47, when there is an object touched among the objects whose display is updated according to any of the above motions, the object is excluded from each autonomous operation target.

図8は、「オブジェクト自律的移動処理」(図4のステップS7参照)の一実施例を示すフローチャートである。ステップS51は、ソースオブジェクトを順に1つずつ選択する。ステップS52は、属性等に従い選択されたソースオブジェクトにかかる力の合力を求める。ソースオブジェクトにかかる力は、空間パラメータ(抵抗、重力、風の各パラメータ)による力、引力点/斥力点による力、自律的運動のための向心力や抗力などである。ステップS53は、属性や該ソースオブジェクトの質量などに基づき加速度を求める。すなわち、ソースオブジェクトにかかる全ての力と、オブジェクト自身の属性(質量や滑りやすさなどの特性パラメータ)に応じて、加速度が求められる。ステップS54は、求めた加速度に応じて進行速度を更新する。ステップS55は、更新された進行速度に応じて表示位置を更新する。   FIG. 8 is a flowchart showing an example of the “object autonomous movement process” (see step S7 in FIG. 4). In step S51, source objects are selected one by one in order. In step S52, the resultant force of the force applied to the source object selected according to the attribute or the like is obtained. The force applied to the source object includes a force due to a spatial parameter (resistance, gravity, and wind parameters), a force due to an attractive point / repulsive point, a centripetal force and a drag force for autonomous movement, and the like. In step S53, acceleration is obtained based on the attribute, the mass of the source object, and the like. That is, acceleration is determined according to all the forces applied to the source object and the attributes of the object itself (characteristic parameters such as mass and slipperiness). In step S54, the traveling speed is updated according to the obtained acceleration. A step S55 updates the display position according to the updated traveling speed.

ステップS56は、他のオブジェクトあるいは画面の縁(端・壁)に接触したか否かを判定する。他のオブジェクトあるいは画面の縁に接触したと判定した場合には(ステップS56のyes)、そのオブジェクト(及び接触したオブジェクト)の物理属性(例えば質量や跳ね返り係数等)に応じて、自身(と相手)の進行速度や進行方向等を更新する(ステップS57)。ステップS58は、全てのソースオブジェクトに対して上記各処理を実行したか否かを判定する。全てのソースオブジェクトに対して上記各処理を実行していないと判定した場合には(ステップS58のno)、ステップS51に戻って上記処理を繰り返し実行する。全てのソースオブジェクトに対して上記各処理を実行したと判定した場合には(ステップS58のyes)、当該処理を終了する。   In step S56, it is determined whether or not another object or the edge (end / wall) of the screen is touched. If it is determined that the object touches another object or the edge of the screen (Yes in step S56), the self (and the other party) according to the physical attributes of the object (and the touched object) (for example, the mass and the rebound coefficient). ) Is updated (step S57). A step S58 decides whether or not each of the above processes has been executed for all the source objects. If it is determined that the above processes are not executed for all the source objects (no in step S58), the process returns to step S51 and is repeatedly executed. If it is determined that the above-described processes have been executed for all the source objects (yes in step S58), the processes are terminated.

図9は、「楽音生成処理」(図4のステップS8参照)の一実施例を示すフローチャートである。ステップS61は、パラメータ制御機能が割り当てられたデスティネーションオブジェクトについて、ソースオブジェクトとの位置関係からパラメータ値を決定し、音源・効果回路7に設定する。すなわち、「楽音制御画面」に表示されているソースオブジェクトOSとデスティネーションオブジェクトODとの距離(表示間隔)に応じて、該当する音色効果パラメータの制御値を決定し、該決定した制御値を音源・効果回路7に対して供給する。ステップS62は、ユーザの演奏操作に応じて音源・効果回路に楽音再生を指示する。例えばユーザによる演奏操作子4の操作に応じて発生されるノートイベント、予め記憶装置8等に記憶しておいた曲データの再生に応じて発生されるノートイベント、さらには通信インタフェース9を介して外部機器から取得されたノートイベント等に基づき、楽音生成を音源・効果回路7に指示する。   FIG. 9 is a flowchart showing an example of the “musical sound generation process” (see step S8 in FIG. 4). In step S 61, the parameter value is determined from the positional relationship with the source object for the destination object to which the parameter control function is assigned, and is set in the sound source / effect circuit 7. That is, the control value of the corresponding timbre effect parameter is determined according to the distance (display interval) between the source object OS and the destination object OD displayed on the “musical sound control screen”, and the determined control value is used as the sound source. Supply to the effect circuit 7 A step S62 instructs the sound source / effect circuit to reproduce a musical sound in accordance with the user's performance operation. For example, a note event generated in response to the operation of the performance operator 4 by the user, a note event generated in response to the reproduction of song data stored in the storage device 8 or the like, and further via the communication interface 9. Based on a note event or the like acquired from an external device, the tone generator / effect circuit 7 is instructed to generate a musical tone.

以上のように、画面内で行なわれたユーザ操作が所定の操作態様である場合に、ユーザ操作が継続的に行われていなくとも、該操作態様に予め対応付けられた動作態様に従って時間的に継続する移動動作を自律的に行うように、画面内の第1表示オブジェクト及び/又は第2表示オブジェクトの表示位置を変更制御するようにした。そして、該自律的な移動動作を行う第1表示オブジェクトと第2表示オブジェクトとの表示位置関係に応じて、第2表示オブジェクトに対応付けられた音色効果パラメータの制御値を決定し、決定した音色効果パラメータの制御値に基づき楽音を制御する。これにより、ユーザは視覚的に楽しみながら、操作態様に応じて多様な楽音制御を行うことができる。   As described above, when the user operation performed on the screen is in a predetermined operation mode, even if the user operation is not continuously performed, the operation mode associated with the operation mode in advance is temporally determined. The display position of the first display object and / or the second display object in the screen is changed and controlled so as to autonomously perform the continuous movement operation. Then, the control value of the timbre effect parameter associated with the second display object is determined according to the display positional relationship between the first display object and the second display object that perform the autonomous moving operation, and the determined timbre The tone is controlled based on the control value of the effect parameter. Accordingly, the user can perform various musical tone controls according to the operation mode while visually enjoying the user.

なお、ジェスチャのうち「引き寄せられる」や「反発する」については、指定した点を中心にしてソースオブジェクトを自律的移動させるのではなく、画面上のポインタの動きにあわせて引き寄せられたり反発したりするようにしてソースオブジェクトを自律的移動させるようにしてもよい。また、「引き寄せられる」や「反発する」対象のソースオブジェクトは、ユーザが予めグルーピングしておいてもよいし、あるいは表示中の全てであってもよい。
なお、予め決められた任意の位置(ユーザが任意に設定できてよい)に障害物オブジェクトを固定表示しておき、自律的移動するソースオブジェクトが障害物オブジェクトに接触した際には画面の縁に接触した場合と同様にして自身の速度や進行方向を更新するようにしてよい。
なお、デスティネーションオブジェクトに音高を割り当てておき、該デスティネーションオブジェクトに対してソースオブジェクトが接触した場合や有効エリアの境界を交差した場合などに、該割り当てられた音高の楽音を発音するようにしてもよい。この場合には、ソースオブジェクトの表示位置とデスティネーションオブジェクトの表示位置との距離に応じて同時に音量調整をするようにしてもよい。また、ソースオブジェクトの表示位置とデスティネーションオブジェクトの表示位置との距離に応じて異なる音高を発音するように、距離毎に異なる音高を割り当てておいてもよい。
For gestures such as “Attracted” and “Repel”, the source object is not moved autonomously around the specified point, but is pulled or repelled according to the movement of the pointer on the screen. Thus, the source object may be moved autonomously. Further, the source objects to be “attracted” and “repel” may be grouped in advance by the user, or may be all of the displayed objects.
Obstacle objects are fixedly displayed at an arbitrary predetermined position (the user may set them arbitrarily), and when the autonomously moving source object touches the obstacle object, it is displayed at the edge of the screen. You may make it update own speed and advancing direction similarly to the case where it contacts.
Note that a pitch is assigned to the destination object, and a musical tone having the assigned pitch is generated when the source object touches the destination object or when the boundary of the effective area is crossed. It may be. In this case, the volume may be adjusted simultaneously according to the distance between the display position of the source object and the display position of the destination object. Also, different pitches may be assigned for each distance so that different pitches are generated according to the distance between the display position of the source object and the display position of the destination object.

なお、上述した実施例ではソースオブジェクトを制御操作子に対応付けておき、制御操作子を操作してレールオブジェクト上のみを移動させるのではなく、オブジェクト操作子を操作して画面内を自由に移動させる場合を例に示したがこれに限らず、ソースオブジェクトは制御操作子に対応付けられていない単に仮想的な操作子であってよく、ユーザがオブジェクト操作子により直接操作することができるだけのものであってよいことは言うまでもない(この場合、レールオブジェクトは必要ない)。
なお、上述した実施例ではソースオブジェクトのみが自律的移動する例を示したがこれに限らず、デスティネーションオブジェクトについても自律的移動できるようにしてよいことは言うまでもない。
なお、二次元ポインティング操作子(オブジェクト操作子)は上記したマウスやタッチパネルに限らない。例えば矢印キーやパッドのようなものであってもよい。
In the above-described embodiment, the source object is associated with the control operator, and the control operator is not moved only on the rail object, but the object operator is operated to freely move within the screen. However, the present invention is not limited to this, and the source object may be simply a virtual operator that is not associated with the control operator, and can only be directly operated by the user with the object operator. Needless to say, the rail object is not necessary in this case.
In the above-described embodiment, an example in which only the source object moves autonomously has been described. However, the present invention is not limited thereto, and it is needless to say that the destination object may be moved autonomously.
Note that the two-dimensional pointing operator (object operator) is not limited to the above-described mouse or touch panel. For example, it may be an arrow key or a pad.

この発明に係る電子音楽装置の全体構成の一実施例を示したハード構成ブロック図である。1 is a block diagram of a hardware configuration showing an example of the overall configuration of an electronic music apparatus according to the present invention. 楽音制御画面の一実施例を示す概念図である。It is a conceptual diagram which shows one Example of a musical tone control screen. 多様なジェスチャとそれに伴って実行されるソースオブジェクトの動きを説明するための概念図である。It is a conceptual diagram for demonstrating various gestures and the movement of the source object performed in connection with it. メイン処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a main process. 引力点/斥力点の設定処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the setting process of an attractive point / repulsive point. 空間パラメータの設定処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of the setting process of a spatial parameter. ジェスチャ処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a gesture process. オブジェクト自律的移動処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of an object autonomous movement process. 楽音生成処理の一実施例を示すフローチャートである。It is a flowchart which shows one Example of a musical tone production | generation process.

符号の説明Explanation of symbols

1…CPU、2…ROM、3…RAM、4,5…検出回路、4A…演奏操作子、5A…設定操作子、6…表示回路、6A…ディスプレイ、7…音源・効果回路、7A…サウンドシステム、8…記憶装置、9…通信インタフェース、1D…データ及びアドレスバス、OS…ソースオブジェクト、OD…デスティネーションオブジェクト、R…レールオブジェクト、KA…有効エリア 1 ... CPU, 2 ... ROM, 3 ... RAM, 4,5 ... detection circuit, 4A ... performance operator, 5A ... setting operator, 6 ... display circuit, 6A ... display, 7 ... sound source / effect circuit, 7A ... sound System, 8 ... Storage device, 9 ... Communication interface, 1D ... Data and address bus, OS ... Source object, OD ... Destination object, R ... Rail object, KA ... Effective area

Claims (3)

仮想の操作子を表す第1表示オブジェクトと、楽音の音高又は楽音制御に係る音色効果パラメータに対応付けられた第2表示オブジェクトとを少なくとも含む画面を表示する表示器であって、複数の前記第1表示オブジェクトがそれぞれ画面上の任意の位置に表示される前記表示器と、
前記画面内で行なわれたユーザ操作を検出し、該検出したユーザ操作が所定の操作態様であるか否かを判定する判定手段と、
前記検出したユーザ操作が所定の操作態様である場合に、該操作態様に予め対応付けられた動作態様に従って時間的に継続する移動動作を前記ユーザ操作が継続的に行われていなくとも自律的に行うように、前記第1表示オブジェクト及び/又は前記第2表示オブジェクトの表示位置を変更制御する表示制御手段と、
複数の前記第1表示オブジェクトの各々と前記第2表示オブジェクトとの間の相対的な表示位置関係の合成値に応じて、前記第2表示オブジェクトに対応付けられた楽音の音高又は音色効果パラメータの制御値を決定する決定手段と、
前記決定した楽音の音高又は音色効果パラメータの制御値に基づき楽音制御を実行する楽音制御手段と
を具える電子音楽装置。
A display for displaying a screen including at least a first display object representing a virtual operation element and a second display object associated with a tone color effect parameter relating to tone pitch or tone control of a tone , The indicator on which each first display object is displayed at an arbitrary position on the screen;
Determining means for detecting a user operation performed in the screen and determining whether the detected user operation is in a predetermined operation mode;
When the detected user operation is a predetermined operation mode, a movement operation that continues in time according to an operation mode previously associated with the operation mode is autonomously performed even if the user operation is not continuously performed. Display control means for changing and controlling the display position of the first display object and / or the second display object,
The relative display position in accordance with the combined value of the relationship, the second pitch or tone effect parameters of tone associated with the display object between each said second display objects of a plurality of the first display object Determining means for determining a control value of;
An electronic music apparatus comprising a musical sound control means for performing musical sound control based on the determined musical tone pitch or the control value of the tone color effect parameter.
前記表示器に表示される第1表示オブジェクト及び第2表示オブジェクト又は前記動作態様に対して各々仮想的な物理量に相当する属性値を対応付けておき、前記表示制御手段は、前記属性値に応じた仮想的な物理特性に従う移動動作を行うように、前記第1表示オブジェクト及び/又は前記第2表示オブジェクトの表示位置を変更制御することを特徴とする請求項1に記載の電子音楽装置。   An attribute value corresponding to a virtual physical quantity is associated with each of the first display object and the second display object displayed on the display unit or the operation mode, and the display control unit is configured to respond to the attribute value. 2. The electronic music apparatus according to claim 1, wherein the display position of the first display object and / or the second display object is changed and controlled so as to perform a moving operation according to the virtual physical characteristic. コンピュータに、
仮想の操作子を表す第1表示オブジェクトと、楽音の音高又は楽音制御に係る音色効果パラメータに対応付けられた第2表示オブジェクトとを少なくとも含む画面を所定の表示器に表示する手順であって、複数の前記第1表示オブジェクトがそれぞれ画面上の任意の位置に表示される前記手順と、
前記画面内で行なわれたユーザ操作を検出し、該検出したユーザ操作が所定の操作態様であるか否かを判定する手順と、
前記検出したユーザ操作が所定の操作態様である場合に、該操作態様に予め対応付けられた動作態様に従って時間的に継続する移動動作を前記ユーザ操作が継続的に行われていなくとも自律的に行うように、前記第1表示オブジェクト及び/又は前記第2表示オブジェクトの表示位置を変更制御する手順と、
複数の前記第1表示オブジェクトの各々と前記第2表示オブジェクトとの間の相対的な表示位置関係の合成値に応じて、前記第2表示オブジェクトに対応付けられた楽音の音高又は音色効果パラメータの制御値を決定する手順と、
前記決定した楽音の音高又は音色効果パラメータの制御値に基づき楽音制御を実行する手順と
を実行させるためのプログラム。
On the computer,
A procedure for displaying a screen including at least a first display object representing a virtual operation element and a second display object associated with a tone color effect parameter relating to tone pitch or tone control on a predetermined display. , The procedure in which a plurality of the first display objects are respectively displayed at arbitrary positions on the screen;
A procedure for detecting a user operation performed in the screen and determining whether or not the detected user operation is a predetermined operation mode;
When the detected user operation is a predetermined operation mode, a movement operation that continues in time according to an operation mode previously associated with the operation mode is autonomously performed even if the user operation is not continuously performed. A procedure for changing and controlling the display position of the first display object and / or the second display object,
The relative display position in accordance with the combined value of the relationship, the second pitch or tone effect parameters of tone associated with the display object between each said second display objects of a plurality of the first display object The procedure for determining the control value of
A program for executing a musical sound control procedure based on the determined musical tone pitch or the control value of the tone color effect parameter.
JP2008234546A 2008-09-12 2008-09-12 Electronic music apparatus and program Expired - Fee Related JP5277816B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008234546A JP5277816B2 (en) 2008-09-12 2008-09-12 Electronic music apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008234546A JP5277816B2 (en) 2008-09-12 2008-09-12 Electronic music apparatus and program

Publications (2)

Publication Number Publication Date
JP2010066655A JP2010066655A (en) 2010-03-25
JP5277816B2 true JP5277816B2 (en) 2013-08-28

Family

ID=42192276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008234546A Expired - Fee Related JP5277816B2 (en) 2008-09-12 2008-09-12 Electronic music apparatus and program

Country Status (1)

Country Link
JP (1) JP5277816B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6171828B2 (en) 2013-10-18 2017-08-02 ヤマハ株式会社 Program and sound effect data generating apparatus for realizing sound effect data generating method
US10635384B2 (en) 2015-09-24 2020-04-28 Casio Computer Co., Ltd. Electronic device, musical sound control method, and storage medium
KR102401550B1 (en) * 2020-11-26 2022-05-24 주식회사 버시스 A method for playing audio source using user interaction and a music application using the same
US11579838B2 (en) 2020-11-26 2023-02-14 Verses, Inc. Method for playing audio source using user interaction and a music application using the same

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160261A (en) * 1993-12-01 1995-06-23 Roland Corp Parameter setting device
JP2002258854A (en) * 2001-03-06 2002-09-11 Roland Corp Musical sound controller
JP2006267226A (en) * 2005-03-22 2006-10-05 Yamaha Corp Musical sound controller
JP4613890B2 (en) * 2006-07-20 2011-01-19 ヤマハ株式会社 Electronic music equipment
JP2008165098A (en) * 2006-12-29 2008-07-17 Sounos Co Ltd Electronic musical instrument
JP4736094B2 (en) * 2007-01-18 2011-07-27 独立行政法人産業技術総合研究所 Sound data generating apparatus and program
JP4953085B2 (en) * 2007-01-23 2012-06-13 独立行政法人産業技術総合研究所 Sound data generating apparatus and program
JP4858777B2 (en) * 2007-02-01 2012-01-18 独立行政法人産業技術総合研究所 Sound data generating apparatus and program

Also Published As

Publication number Publication date
JP2010066655A (en) 2010-03-25

Similar Documents

Publication Publication Date Title
US7960639B2 (en) Electronic music apparatus and tone control method
JP4534835B2 (en) Performance guide apparatus and program
US20150103019A1 (en) Methods and Devices and Systems for Positioning Input Devices and Creating Control
JP2000020054A (en) Karaoke sing-along machine
Morales-Manzanares et al. SICIB: An interactive music composition system using body movements
JP5232480B2 (en) Effect device
JP5277816B2 (en) Electronic music apparatus and program
JP5433988B2 (en) Electronic music equipment
US8878044B2 (en) Processing device and method for displaying a state of tone generation apparatus
KR101168322B1 (en) Audio processing device, audio processing method, and information recording medium
JP5272599B2 (en) Electronic music apparatus and program
JP5747512B2 (en) Parameter setting program and electronic music apparatus
JP3656507B2 (en) Performance information editing device
JP5821170B2 (en) Electronic music apparatus and program
JP5846053B2 (en) Parameter control program and parameter control apparatus
JP5277814B2 (en) Electronic music apparatus and program
JP4337288B2 (en) Performance operation display device and program
JP5433989B2 (en) Electronic music equipment
JP2004287144A (en) Control device for reproduction of music and display of moving image and its program
Stockmann et al. A musical instrument based on 3d data and volume sonification techniques
JP5348173B2 (en) Electronic information processing apparatus and program
JP5135922B2 (en) Electronic music apparatus and program
JP4218566B2 (en) Musical sound control device and program
JP5500143B2 (en) Sound source control device and sound source control program
JP6299532B2 (en) Singing model display device, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110823

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130115

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130315

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130506

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees