JP2007322683A - Musical sound control device and program - Google Patents

Musical sound control device and program Download PDF

Info

Publication number
JP2007322683A
JP2007322683A JP2006152156A JP2006152156A JP2007322683A JP 2007322683 A JP2007322683 A JP 2007322683A JP 2006152156 A JP2006152156 A JP 2006152156A JP 2006152156 A JP2006152156 A JP 2006152156A JP 2007322683 A JP2007322683 A JP 2007322683A
Authority
JP
Japan
Prior art keywords
hand
finger
player
musical
keyboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006152156A
Other languages
Japanese (ja)
Inventor
Yoshinari Nakamura
吉就 中村
Masahiko Hasebe
長谷部  雅彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006152156A priority Critical patent/JP2007322683A/en
Publication of JP2007322683A publication Critical patent/JP2007322683A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a musical sound control device and a program, capable of controlling a musical sound characteristics which is different for each sound range corresponding to each hand, and/or for each sound pitch corresponding to each finger, for touching a key of a keyboard. <P>SOLUTION: Player's key touching of the keyboard is imaged by two cameras installed near both ends of the keyboard, and a predetermined image recognition processing is performed on each image data which is converted into a digital data, and a position of each hand or each finger of the player in a predetermined direction. For example, when the position of each hand is recognized by a hand unit, the position of each hand in the predetermined direction is recognized independently with a left hand and a right hand. Based on the detected position for each hand, the musical characteristic allocated to the left hand and the musical characteristic allocated to the right hand are independently controlled. Meanwhile, when the position of each finger is recognized by a finger unit, the position of each finger is recognized independently with each finger, and based on the position for each detected finger, the musical sound characteristic allocated to each finger is independently controlled. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、鍵盤上の演奏者の手および/または指の動きを検出し、該検出した手および/または指の動きに応じて楽音特性を制御する楽音制御装置およびプログラムに関する。   The present invention relates to a musical tone control apparatus and program for detecting movement of a player's hand and / or finger on a keyboard and controlling musical tone characteristics in accordance with the detected movement of the hand and / or finger.

鍵盤上の演奏者の手の動きを検出し、該検出した手の動きに応じて楽音特性を制御する楽音制御装置は、従来から知られている。   2. Description of the Related Art Musical tone control devices that detect the movement of a player's hand on a keyboard and control musical tone characteristics in accordance with the detected hand movement are conventionally known.

このような楽音制御装置として、鍵盤の鍵に接触する、演奏者の指を撮像し、撮像した指の画像を認識することで、演奏者の指の形状を検出し、その検出した指の形状に基づいて音色パラメータを制御するものがある(たとえば、特許文献1参照)。また、特許文献1には、多くの時刻で、指を含む映像を撮像して、加速度や動きの変化等の複雑な指の動きを検出し、これに対応した音色や音量等を制御することも記載されている。
実公平7−53117号公報
As such a musical tone control device, the player's finger shape that touches the keys of the keyboard is imaged and the image of the captured finger is recognized to detect the shape of the player's finger, and the detected finger shape Some control the timbre parameters based on the above (see, for example, Patent Document 1). Further, Patent Document 1 captures images including a finger at many times, detects complicated finger movements such as changes in acceleration and movement, and controls timbres, sound volumes, and the like corresponding thereto. Is also described.
No. 7-53117

しかし、上記従来の楽音制御装置では、楽音の音域毎あるいは音高毎に異なる楽音特性を制御することはできなかった。たとえば、鍵盤を操作している右手と左手とで異なる楽音特性を制御したり、鍵盤を操作している指毎に異なる楽音特性を制御したりすることはできなかった。   However, the conventional musical tone control apparatus cannot control different musical tone characteristics for each musical tone range or pitch. For example, it is impossible to control different musical tone characteristics for the right and left hands operating the keyboard, or to control different musical tone characteristics for each finger operating the keyboard.

本発明は、この点に着目してなされたものであり、鍵盤を操作している各手に対応する音域毎および/または各指に対応する音高毎に異なる楽音特性を制御することが可能となる楽音制御装置およびプログラムを提供することを目的とする。   The present invention has been made paying attention to this point, and it is possible to control different musical tone characteristics for each range corresponding to each hand operating the keyboard and / or for each pitch corresponding to each finger. An object of the present invention is to provide a musical tone control device and a program.

上記目的を達成するため、請求項1に記載の楽音制御装置は、撮像装置から出力された、演奏者の手および/または指の画像データを入力する入力手段と、該入力手段によって入力された、演奏者の手および/または指の画像データに基づいて、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置を認識する認識手段と、該認識手段によって認識された、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置に基づいて、当該手および/または指に対応した音高グループ毎および/または音高毎独立に楽音特性を制御する制御手段とを有することを特徴とする。   In order to achieve the above object, the musical tone control device according to claim 1 is input by the input means for inputting the image data of the performer's hand and / or finger outputted from the imaging device, and input by the input means. And a recognition means for recognizing at least one position of the player's hand and / or finger on the keyboard in the vertical direction, the horizontal direction and the front-back direction based on the image data of the player's hand and / or finger. And, based on the position of at least one of the up-down direction, left-right direction, and front-rear direction of the player's hand and / or finger on the keyboard recognized by the recognition means, And a control means for controlling the tone characteristics independently for each corresponding pitch group and / or for each pitch.

上記目的を達成するため、請求項2に記載のプログラムは、請求項1と同様の技術的思想によって実現できる。   In order to achieve the above object, the program according to claim 2 can be realized by a technical idea similar to that of claim 1.

請求項1または2に記載の発明によれば、入力された、演奏者の手および/または指の画像データに基づいて、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置が認識され、該認識結果に基づいて、当該手および/または指に対応した音高グループ毎および/または音高毎独立に楽音特性が制御されるので、各手にそれぞれ対応した音高グループ毎および/または各指にそれぞれ対応した音高毎に、異なる楽音特性を制御することができる。たとえば、右手の位置に基づいて、発音中の楽音にビブラートをかけ、左手の位置に基づいて、発音中の楽音にトレモロをかける、などの制御が可能になる。あるいは、指毎(音高毎)にビブラートのかけ具合を変えることができる。なお、「異なる楽音特性を制御する」とは、種類の異なった楽音特性を制御するという意味だけではなく、同じ種類の楽音特性を異なった制御量で制御するという意味も含んでいる。   According to the first or second aspect of the present invention, based on the input image data of the player's hand and / or finger, the player's hand and / or finger on the keyboard in the vertical direction, the horizontal direction, and Since at least one position in the front-rear direction is recognized, and the tone characteristics are controlled independently for each pitch group corresponding to the hand and / or finger and / or for each pitch based on the recognition result. Different musical tone characteristics can be controlled for each pitch group corresponding to each hand and / or for each pitch corresponding to each finger. For example, it is possible to control such that a vibrato is applied to a musical sound being pronounced based on the position of the right hand and a tremolo is applied to a musical sound being pronounced based on the position of the left hand. Alternatively, the degree of vibrato can be changed for each finger (every pitch). Note that “controlling different musical tone characteristics” includes not only the meaning of controlling different musical tone characteristics but also the meaning of controlling the same musical tone characteristics with different control amounts.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明の一実施の形態に係る楽音制御装置の概略構成を示すブロック図である。   FIG. 1 is a block diagram showing a schematic configuration of a musical tone control apparatus according to an embodiment of the present invention.

同図に示すように、本実施の形態の楽音制御装置は、音高情報を入力するための鍵盤1a(図2参照)を含む演奏操作子1と、各種情報を入力するための複数のスイッチを含む設定操作子2と、演奏操作子1の操作状態を検出する検出回路3と、設定操作子2の操作状態を検出する検出回路4と、主に演奏者の手や指を撮像する撮像装置5と、装置全体の制御を司るCPU6と、該CPU6が実行する制御プログラムや、各種テーブルデータ等を記憶するROM7と、演奏データ、各種入力情報および演算結果等を一時的に記憶するRAM8と、タイマ割込み処理における割込み時間や各種時間を計時するタイマ9と、各種情報等を表示する、たとえば液晶ディスプレイ(LCD)および発光ダイオード(LED)等を備えた表示装置10と、前記制御プログラムを含む各種アプリケーションプログラムや各種楽曲データ、各種データ等を記憶する外部記憶装置11と、外部からのMIDI(Musical Instrument Digital Interface)メッセージを入力したり、MIDIメッセージを外部に出力したりするMIDIインターフェース(I/F)12と、通信ネットワーク101を介して、たとえばサーバコンピュータ(以下、「サーバ」と略して言う)102とデータの送受信を行う通信インターフェース(I/F)13と、演奏操作子1から入力された演奏データや予め設定された演奏データ等を楽音信号に変換する音源回路14と、該音源回路14からの楽音信号に各種効果を付与するための効果回路15と、該効果回路15からの楽音信号を音響に変換する、たとえば、DAC(Digital-to-Analog Converter)やアンプ、スピーカ等のサウンドシステム16とにより構成されている。   As shown in the figure, the musical tone control apparatus of the present embodiment includes a performance operator 1 including a keyboard 1a (see FIG. 2) for inputting pitch information, and a plurality of switches for inputting various types of information. Including a setting operator 2, a detection circuit 3 for detecting the operation state of the performance operator 1, a detection circuit 4 for detecting the operation state of the setting operator 2, and imaging for mainly imaging the hands and fingers of the performer. A device 5, a CPU 6 that controls the entire device, a control program executed by the CPU 6, a ROM 7 that stores various table data, and a RAM 8 that temporarily stores performance data, various input information, calculation results, and the like A timer 9 for measuring the interrupt time and various times in the timer interrupt processing, and a display device 10 for displaying various information, for example, including a liquid crystal display (LCD) and a light emitting diode (LED) The external storage device 11 that stores various application programs including the control program, various music data, various data, and the like, inputs MIDI (Musical Instrument Digital Interface) messages from the outside, and outputs MIDI messages to the outside. A MIDI interface (I / F) 12, a communication interface (I / F) 13 for transmitting / receiving data to / from a server computer (hereinafter abbreviated as “server”) 102 via a communication network 101, and a performance operation A tone generator circuit 14 for converting performance data input from the child 1 or preset performance data into a musical tone signal, an effect circuit 15 for applying various effects to the musical tone signal from the tone generator circuit 14, and the effect A musical sound signal from the circuit 15 is converted into sound, for example, DAC (Digital-to-Ana log converter), a sound system 16 such as an amplifier and a speaker.

上記構成要素3〜15は、バス17を介して相互に接続され、CPU6にはタイマ9が接続され、MIDII/F12には他のMIDI機器100が接続され、通信I/F13には通信ネットワーク101が接続され、音源回路14には効果回路15が接続され、効果回路15にはサウンドシステム16が接続されている。ここで、通信I/F13および通信ネットワーク101は、有線方式のものに限らず、無線方式のものであってもよい。また、両方式のものを備えていてもよい。   The above components 3 to 15 are connected to each other via a bus 17, a timer 9 is connected to the CPU 6, another MIDI device 100 is connected to the MIDII / F 12, and a communication network 101 is connected to the communication I / F 13. Is connected to the sound source circuit 14, and the sound system 16 is connected to the effect circuit 15. Here, the communication I / F 13 and the communication network 101 are not limited to the wired system but may be a wireless system. In addition, both types may be provided.

外部記憶装置11としては、たとえば、フレキシブルディスクドライブ(FDD)、ハードディスクドライブ(HDD)、CD−ROMドライブおよび光磁気ディスク(MO)ドライブ等を挙げることができる。そして、外部記憶装置11には、前述のように、CPU6が実行する制御プログラムも記憶でき、ROM7に制御プログラムが記憶されていない場合には、この外部記憶装置11に制御プログラムを記憶させておき、それをRAM8に読み込むことにより、ROM7に制御プログラムを記憶している場合と同様の動作をCPU6にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。   Examples of the external storage device 11 include a flexible disk drive (FDD), a hard disk drive (HDD), a CD-ROM drive, and a magneto-optical disk (MO) drive. As described above, the external storage device 11 can also store a control program to be executed by the CPU 6. If the control program is not stored in the ROM 7, the control program is stored in the external storage device 11. By reading it into the RAM 8, it is possible to cause the CPU 6 to perform the same operation as when the control program is stored in the ROM 7. In this way, control programs can be easily added and upgraded.

通信I/F13は、上述のように、たとえばLAN(Local Area Network)やインターネット、電話回線等の通信ネットワーク101に接続されており、該通信ネットワーク101を介して、サーバ102に接続される。外部記憶装置11に上記各プログラムや各種パラメータが記憶されていない場合には、通信I/F13は、サーバ102からプログラムやパラメータをダウンロードするために用いられる。クライアントとなる楽音制御装置は、通信I/F13および通信ネットワーク101を介してサーバ102へとプログラムやパラメータのダウンロードを要求するコマンドを送信する。サーバ102は、このコマンドを受け、要求されたプログラムやパラメータを、通信ネットワーク101を介して楽音制御装置へと配信し、楽音制御装置が通信I/F13を介して、これらプログラムやパラメータを受信して外部記憶装置11に蓄積することにより、ダウンロードが完了する。   As described above, the communication I / F 13 is connected to a communication network 101 such as a LAN (Local Area Network), the Internet, or a telephone line, and is connected to the server 102 via the communication network 101. When the above programs and various parameters are not stored in the external storage device 11, the communication I / F 13 is used to download programs and parameters from the server 102. The musical tone control apparatus as a client transmits a command for requesting downloading of a program and parameters to the server 102 via the communication I / F 13 and the communication network 101. Upon receiving this command, the server 102 distributes the requested program and parameters to the musical tone control device via the communication network 101, and the musical tone control device receives these programs and parameters via the communication I / F 13. Thus, the download is completed by accumulating in the external storage device 11.

撮像装置5は、本実施の形態では、図2に示すように、鍵盤1aの両端近傍にそれぞれ設置された2台の小型カメラ5aおよび5bによって構成されている。図2は、カメラ5aおよび5bの設置の一例を示す図であり、鍵盤1aを含む鍵盤近傍の外観を示している。そして、図2(a)は、その平面図であり、図2(b)は、その正面図であり、図(c)2は、その側面図である。   In the present embodiment, the imaging device 5 includes two small cameras 5a and 5b installed near both ends of the keyboard 1a, as shown in FIG. FIG. 2 is a diagram showing an example of installation of the cameras 5a and 5b, and shows an external appearance in the vicinity of the keyboard including the keyboard 1a. FIG. 2A is a plan view thereof, FIG. 2B is a front view thereof, and FIG. 2C is a side view thereof.

図2(a)に示すように、カメラ5aおよび5bのそれぞれの光軸は鍵盤1aの中央方向に向けられ、カメラ5aおよび5bのそれぞれが鍵盤1aの全域を撮像できるようになっている。なお、カメラ5aおよび5bは、演奏者の手や指を撮像可能な、通常のものを用いればよいが、特殊なもの、たとえば赤外線カメラを用いてもよい。赤外線カメラを用いた場合、演奏者の手や指は熱を発しているため、撮像対象である演奏者の手や指がその周囲のものより浮き上がって撮像されるので、演奏者の手や指の位置の検出精度をより向上させることができる。また、検出精度を向上させるために、演奏者の手や指に特定の色などによるマーキングを行う(たとえば、爪にマニキュアを塗る、指にアタッチメントを装着する、腕輪をするなど)ようにしてもよい。なお、カメラ5aおよび5bの位置や個数は、上記位置や個数に限らない。たとえば、1オクターブ間隔等で、数多くのカメラを設置してもよく、そのようにすることで、手や指の位置を検出する精度がさらに向上する。   As shown in FIG. 2 (a), the optical axes of the cameras 5a and 5b are directed toward the center of the keyboard 1a, so that each of the cameras 5a and 5b can capture the entire area of the keyboard 1a. It should be noted that the cameras 5a and 5b may be ordinary ones that can image the performer's hands and fingers, but may be special ones such as infrared cameras. When an infrared camera is used, the performer's hands and fingers are heated, so the performer's hands and fingers are picked up from the surroundings, and the performer's hands and fingers are captured. The position detection accuracy can be further improved. In addition, in order to improve detection accuracy, the player's hand or finger may be marked with a specific color (for example, applying nail polish to the nail, attaching an attachment to the finger, wearing a bracelet, etc.) Good. The positions and number of the cameras 5a and 5b are not limited to the above positions and numbers. For example, a large number of cameras may be installed at intervals of one octave or the like, and by doing so, the accuracy of detecting the position of the hand or finger is further improved.

以上のように構成された楽音制御装置が実行する制御処理を、まずその概要を説明し、次に図3および図4を参照して詳細に説明する。   The control process executed by the musical tone control apparatus configured as described above will be described first, and then will be described in detail with reference to FIGS.

各カメラ5aおよび5bによってそれぞれ撮像され、デジタルデータに変換された各画像データは、前記バス17を通って、前記RAM8の所定位置に確保された画像データ格納領域(図示せず)に格納される。演奏者が前記鍵盤1aの押鍵を開始すると、まず、前記CPU6は、押鍵に対応するキーオンイベントデータを生成して前記音源回路14に供給する。これに応じて、音源回路14は、供給されたキーオンイベントデータに対応する楽音の発音を開始する。次に、CPU6は、画像データ格納領域に格納された2つの画像データに対して、所定の画像認識処理を行い、演奏者の各手や各指の所定方向(上下方向=鉛直方向、左右方向=鍵盤1aの長手(音高)方向および前後方向=鍵盤1aの短手(奥行き)方向のうちの、少なくとも一方向、好ましくは、複数方向)の位置を認識する。ここで、所定の画像認識処理とは、たとえば特開2001−132340号公報で開示されているような、ある公知の画像認識処理を意味する。このような公知の画像認識処理を採用したのは、本発明の特徴は、画像認識処理自体にあるのではなく、画像認識処理結果の用い方にあるので、公知の画像認識処理を採用したとしても、本発明の特徴は変わらないからである。   Each image data captured and converted into digital data by each camera 5a and 5b is stored in an image data storage area (not shown) secured at a predetermined position in the RAM 8 through the bus 17. . When the performer starts to press the keyboard 1a, first, the CPU 6 generates key-on event data corresponding to the key press and supplies it to the tone generator circuit. In response to this, the tone generator circuit 14 starts to generate a tone corresponding to the supplied key-on event data. Next, the CPU 6 performs a predetermined image recognition process on the two image data stored in the image data storage area, and performs a predetermined direction (vertical direction = vertical direction, horizontal direction) of each hand and each finger of the performer. = Recognize the position of at least one direction, preferably a plurality of directions, of the longitudinal (pitch) direction and the front-rear direction of the keyboard 1a = the shorter (depth) direction of the keyboard 1a. Here, the predetermined image recognition process means a known image recognition process as disclosed in, for example, Japanese Patent Application Laid-Open No. 2001-132340. The reason for adopting such a known image recognition process is that the feature of the present invention is not in the image recognition process itself but in the use of the image recognition process result. This is because the characteristics of the present invention are not changed.

このようにして、演奏者の各手や各指の位置が認識されると、CPU6は、認識された演奏者の各手や各指の位置に基づいて、発音中の楽音の特性を制御するための楽音特性制御パラメータを生成し、音源回路14に供給する。これに応じて、音源回路14は、発音中の楽音の特性を制御する。なお、画像認識のレベルは、指単位であっても、手単位であってもよい。指単位で画像認識を行うと、指毎(=音高毎)に異なった楽音特性を制御できるが、画像認識の高い精度が要求される。これに対して、手単位の画像認識であれば、手毎に異なった楽音特性を制御することになるが、画像認識の精度はそれほど高くなくてもよい。   When the position of each hand and each finger of the performer is recognized in this way, the CPU 6 controls the characteristics of the musical sound being generated based on the recognized positions of each hand and each finger of the performer. Musical tone characteristic control parameters are generated and supplied to the tone generator circuit 14. In response to this, the tone generator circuit 14 controls the characteristics of the musical sound being sounded. The level of image recognition may be a finger unit or a hand unit. When image recognition is performed in units of fingers, different tone characteristics can be controlled for each finger (= each pitch), but high accuracy of image recognition is required. On the other hand, in the case of hand-based image recognition, different musical tone characteristics are controlled for each hand, but the accuracy of image recognition may not be so high.

次に、演奏者が鍵盤1aの離鍵を行うと、CPU6は、離鍵に対応するキーオフイベントデータを生成して音源回路14に供給する。これに応じて、音源回路14は、発音中の楽音の消音を開始する。   Next, when the performer releases the keyboard 1 a, the CPU 6 generates key-off event data corresponding to the key release and supplies it to the tone generator circuit 14. In response to this, the tone generator circuit 14 starts to mute the musical sound being generated.

なお、本実施の形態では、カメラ5aおよび5bから出力される画像データは、画像認識を行わないときにも画像データ格納領域に格納するようにしたが、これに限らず、画像認識を行うとき、つまり、鍵盤1aの押鍵が検出されたときに、画像データ格納領域に格納するようにしてもよい。   In the present embodiment, the image data output from the cameras 5a and 5b is stored in the image data storage area even when the image recognition is not performed. That is, when a key depression of the keyboard 1a is detected, it may be stored in the image data storage area.

次に、この制御処理を詳細に説明する。   Next, this control process will be described in detail.

図3は、本実施の形態の楽音制御装置、特にCPU6が実行する楽音特性制御処理の手順を示すフローチャートである。本楽音特性制御処理は、主として、
(1)押鍵に応じた楽音の発音開始処理(ステップS2)
(2)演奏者の手および/または指の位置認識処理(ステップS4)
(3)上記(2)の位置認識処理による認識結果に応じて楽音特性制御パラメータを生成し、前記音源回路14に供給する楽音特性制御パラメータ生成・供給処理(ステップS5)
(4)離鍵に応じた楽音の消音処理(ステップS7)
を行う。
FIG. 3 is a flowchart showing the procedure of the musical tone characteristic control process executed by the musical tone control apparatus of the present embodiment, particularly the CPU 6. This musical sound characteristic control process is mainly
(1) Music sound generation start process according to key depression (step S2)
(2) Performer's hand and / or finger position recognition process (step S4)
(3) Musical sound characteristic control parameter generation / supply process (step S5) for generating a musical sound characteristic control parameter according to the recognition result of the position recognition process of (2) and supplying it to the tone generator circuit 14
(4) Mute processing according to key release (step S7)
I do.

前記検出回路3によって、鍵盤1aの押鍵が検出されると、CPU6は、処理を上記(1)の押鍵に応じた楽音の発音開始処理に進め、検出された押鍵に応じたキーオンイベントデータ、具体的には、その押鍵鍵の音高に対応するキーコードデータ、その押鍵に応じたベロシティデータおよびキーオンデータからなるキーオンイベントデータを生成して、音源回路14に供給する。これに応じて、音源回路14は、供給されたキーオンイベントデータに対応する楽音信号を生成し始める、つまり、楽音の発音を開始する(ステップS2)。   When the detection circuit 3 detects the key depression of the keyboard 1a, the CPU 6 advances the process to the tone generation start process corresponding to the key depression of the above (1), and the key-on event corresponding to the detected key depression. Data, specifically, key code data corresponding to the pitch of the depressed key, velocity data corresponding to the depressed key, and key-on event data including key-on data are generated and supplied to the tone generator circuit 14. In response to this, the tone generator circuit 14 starts to generate a tone signal corresponding to the supplied key-on event data, that is, starts to generate a tone (step S2).

そして、押鍵中は、CPU6は、上記(2)の演奏者の手および/または指の位置認識処理および上記(3)の楽音特性制御パラメータ生成・供給処理を繰り返し行う。   During key depression, the CPU 6 repeatedly performs the player's hand and / or finger position recognition process (2) and the tone characteristic control parameter generation / supply process (3).

上記(2)の演奏者の手および/または指の位置認識処理では、取り込んだ画像データ、つまり、前記RAM8の画像データ格納領域に格納された、2つの画像データに前記所定の画像認識処理を施すことで、手毎および/または指毎独立に、手および/または指の上下方向、左右方向および前後方向のうち、少なくとも一方向の位置を認識する(ステップS4)。   In the player's hand and / or finger position recognition process of (2) above, the predetermined image recognition process is performed on the captured image data, that is, two image data stored in the image data storage area of the RAM 8. By applying, the position of at least one direction among the up-down direction, left-right direction, and front-back direction of the hand and / or finger is recognized independently for each hand and / or finger (step S4).

図4は、上記(2)の演奏者の手および/または指の位置認識処理を説明するための図であり、同図(a)は、手単位での位置認識を示し、同図(b)は、指単位での位置認識を示している。   FIG. 4 is a diagram for explaining the player's hand and / or finger position recognition process of (2) above, and FIG. 4 (a) shows the position recognition in units of hands, and FIG. ) Indicates position recognition in units of fingers.

手単位での位置認識処理では、図4(a)に示すように、左手と右手で独立して、手の上下方向、左右方向および前後方向のうち、少なくとも一方向の位置を認識する。このように、手毎に所定方向の位置が検出されると、検出された手毎の位置、つまり左手と右手の位置に基づいて、左手に割り当てられた楽音特性と右手に割り当てられた楽音特性を独立に制御することができる。   In the position recognition process in units of hands, as shown in FIG. 4A, the position of at least one of the vertical direction, the horizontal direction, and the front-rear direction of the hand is recognized independently for the left hand and the right hand. In this way, when a position in a predetermined direction is detected for each hand, based on the detected positions for each hand, that is, the positions of the left hand and the right hand, the tone characteristics assigned to the left hand and the tone characteristics assigned to the right hand Can be controlled independently.

指単位での位置認識処理では、図4(b)に示すように、各指で独立して、指の上下方向、左右方向および前後方向のうち、少なくとも一方向の位置を認識する。このように、指毎に所定方向の位置が検出されると、検出された指毎の位置に基づいて、各指に割り当てられた楽音特性をそれぞれ独立に制御することができる。   In the position recognition process in units of fingers, as shown in FIG. 4B, each finger independently recognizes the position of at least one direction among the vertical direction, the horizontal direction, and the front-rear direction of the finger. As described above, when a position in a predetermined direction is detected for each finger, the tone characteristics assigned to each finger can be independently controlled based on the detected position for each finger.

また、上記手単位での位置認識処理と上記指単位での位置認識処理を組み合わせることにより、手毎および指毎に、所定方向の位置を検出するようにしてもよい。この場合、所定方向は、手に対する方向と指に対する方向とで異なるようにしてもよい。たとえば、手に対しては、上下方向の位置のみ検出し、指に対しては、左右方向および前後方向の各方向の位置を検出するというようにである。   Further, a position in a predetermined direction may be detected for each hand and each finger by combining the position recognition process in units of hands and the position recognition process in units of fingers. In this case, the predetermined direction may be different between the direction with respect to the hand and the direction with respect to the finger. For example, only the position in the vertical direction is detected for the hand, and the position in each direction of the horizontal direction and the front-rear direction is detected for the finger.

なお、本実施の形態では、前記カメラ5aおよび5bから得られた、2つの画像データに基づいて、その時点の演奏者の手および/または指の位置を認識するようにしたが、所定時間に亘って認識した演奏者の手および/または指の位置を、たとえばRAM8に設けたリングバッファ(図示せず)に時系列データとして格納しておき、この時系列データの変化から、演奏者の手および/または指の速度や加速度を求め、これらの情報に基づいて楽音特性を制御するようにしてもよい。   In the present embodiment, the position of the player's hand and / or finger at that time is recognized based on the two image data obtained from the cameras 5a and 5b. The player's hand and / or finger position recognized over time is stored as time-series data in a ring buffer (not shown) provided in the RAM 8, for example, and the player's hand is determined from the change in the time-series data. Alternatively, the speed and acceleration of the finger may be obtained, and the musical sound characteristics may be controlled based on such information.

図3に戻り、前記(3)の楽音特性制御パラメータ生成・供給処理では、認識した演奏者の手および/または指の位置に基づいて、楽音特性制御パラメータを生成し、この楽音特性制御パラメータを前記音源回路14に供給する。以下、生成する楽音特性制御パラメータについて説明する。
(A)手単位で位置認識を行う場合:手毎に異なる種類の楽音特性制御パラメータを生成する。たとえば、右手については、音高を制御する制御パラメータを生成し、左手については、音量を制御する制御パラメータを生成する。あるいは、手毎に同じ種類の楽音特性制御パラメータを生成する。たとえば、右手についても、左手についても、音高を制御する制御パラメータを生成する。ただし、同じ種類の楽音特性制御パラメータを生成するとしても、その制御量は、手毎独立に決めることができる。また、手毎に異なる種類の楽音特性制御パラメータを生成する制御態様と、手毎に同じ種類の楽音特性制御パラメータを生成する制御態様とを、演奏者が選択できるようにしてもよい。
(B)指単位で位置認識を行う場合:指毎に異なる種類の楽音特性制御パラメータを生成する。たとえば、親指については、音高を制御する制御パラメータを生成し、他の指については、音量を制御する制御パラメータを生成する。あるいは、指毎に同じ種類の楽音特性制御パラメータを生成する。たとえば、すべての指について、音高を制御する制御パラメータを生成する。ただし、同じ種類の楽音特性制御パラメータを生成するとしても、その制御量は、指毎独立に決めることができる。また、指毎に異なる種類の楽音特性制御パラメータを生成する制御態様と、指毎に同じ種類の楽音特性制御パラメータを生成する制御態様とを、演奏者が選択できるようにしてもよい。
(C)所定方向の位置として、複数方向の位置を認識する場合:方向毎に異なる種類の楽音特性制御パラメータを生成する。たとえば、左右方向については、音高を制御する制御パラメータを生成し、前後方向については、音量を制御する制御パラメータを生成する。あるいは、方向毎に同じ種類の楽音特性制御パラメータを生成する。たとえば、すべての方向について、音高を制御する制御パラメータを生成する。ただし、同じ種類の楽音特性制御パラメータを生成するとしても、その制御量は、方向毎独立に決めることができる。また、方向毎に異なる種類の楽音特性制御パラメータを生成する制御態様と、方向毎に同じ種類の楽音特性制御パラメータを生成する制御態様とを、演奏者が選択できるようにしてもよい。
Returning to FIG. 3, in the musical tone characteristic control parameter generating / supplying process (3), a musical tone characteristic control parameter is generated based on the recognized player's hand and / or finger position, The sound source circuit 14 is supplied. Hereinafter, the tone characteristic control parameters to be generated will be described.
(A) When position recognition is performed in units of hands: different types of tone characteristic control parameters are generated for each hand. For example, a control parameter for controlling the pitch is generated for the right hand, and a control parameter for controlling the volume is generated for the left hand. Alternatively, the same kind of tone characteristic control parameters are generated for each hand. For example, control parameters for controlling the pitch are generated for both the right hand and the left hand. However, even if the same type of tone characteristic control parameters are generated, the control amount can be determined independently for each hand. Further, the player may be able to select a control mode for generating different types of musical tone characteristic control parameters for each hand and a control mode for generating the same type of musical tone characteristic control parameters for each hand.
(B) When position recognition is performed in units of fingers: different types of tone characteristic control parameters are generated for each finger. For example, a control parameter for controlling the pitch is generated for the thumb, and a control parameter for controlling the volume is generated for the other fingers. Alternatively, the same kind of tone characteristic control parameters are generated for each finger. For example, a control parameter for controlling the pitch is generated for all fingers. However, even if the same type of tone characteristic control parameters are generated, the control amount can be determined independently for each finger. Further, the player may be able to select a control mode for generating different types of musical tone characteristic control parameters for each finger and a control mode for generating the same type of musical tone characteristic control parameters for each finger.
(C) When recognizing a position in a plurality of directions as a position in a predetermined direction: A different type of tone characteristic control parameter is generated for each direction. For example, a control parameter for controlling the pitch is generated for the left-right direction, and a control parameter for controlling the volume is generated for the front-back direction. Alternatively, the same kind of tone characteristic control parameters are generated for each direction. For example, control parameters for controlling the pitch are generated for all directions. However, even if the same kind of tone characteristic control parameters are generated, the control amount can be determined independently for each direction. Further, the player may be able to select a control mode for generating different types of musical tone characteristic control parameters for each direction and a control mode for generating the same type of musical tone characteristic control parameters for each direction.

制御する楽音特性の種類としては、音量、音高、音色などを挙げることができる。上記(A)〜(C)のいずれの場合でも、手や指の1つの動作で、複数の特性を同時に制御するようにしてもよい。たとえば、左右方向の位置で、音高と音量を同時に制御するというようにである。また、手の位置と指の位置の双方を認識する場合、認識した手の位置と指の位置とで、異なる種類の楽音特性制御パラメータを生成するようにしてもよい。たとえば、認識した手の位置に対して、音量を制御する制御パラメータを生成し、認識した指の位置に対して、音高を制御する制御パラメータを生成するというようにである。   Examples of the types of musical sound characteristics to be controlled include volume, pitch, and tone color. In any of the cases (A) to (C), a plurality of characteristics may be controlled simultaneously by one operation of a hand or a finger. For example, the pitch and volume are controlled at the left and right positions. When both the hand position and the finger position are recognized, different types of musical tone characteristic control parameters may be generated for the recognized hand position and finger position. For example, a control parameter for controlling the sound volume is generated for the recognized hand position, and a control parameter for controlling the pitch is generated for the recognized finger position.

楽音特性制御パラメータを生成する方法としては、主として、
(a)認識した手や指の所定方向の位置に基づいて、目的の楽音特性を直接制御する楽音特性制御パラメータを生成する方法
(b)認識した手や指の所定方向の位置に基づいて、目的の楽音特性を間接的に制御する楽音特性制御パラメータを生成する方法
の2種類の方法を挙げることができる。
As a method for generating a musical sound characteristic control parameter, mainly,
(A) A method for generating a musical tone characteristic control parameter for directly controlling a target musical tone characteristic based on the recognized position of the hand or finger in a predetermined direction. (B) Based on the recognized position of the hand or finger in a predetermined direction. There can be mentioned two kinds of methods: a method of generating a musical tone characteristic control parameter for indirectly controlling a target musical tone characteristic.

具体的には、上記(a)の生成方法では、認識した手や指の所定方向の位置を、楽音の音高、音量、音色などを直接制御する制御パラメータに変換する。一方、上記(b)の生成方法では、認識した手や指の所定方向の位置を、LFO(Low Frequency Oscillator)やEG(Envelope Generator)などを制御する制御パラメータに変換する。ここで、LFOやEGなどは、楽音の音高、音量、音色などを間接的に制御するデバイスであるので、手や指の所定方向の位置と、LFOやEGなどを制御する制御パラメータの種類や量とを所定のルールによって対応付け、認識した手や指の所定方向の位置から、制御パラメータの種類や量を決定し、これを音源回路14に供給すれば、目的の楽音特性を間接的に制御できる。   Specifically, in the generation method (a), the recognized position of the hand or finger in a predetermined direction is converted into a control parameter that directly controls the pitch, volume, tone color, etc. of the musical sound. On the other hand, in the generation method (b), the recognized position of the hand or finger in a predetermined direction is converted into a control parameter for controlling an LFO (Low Frequency Oscillator), an EG (Envelope Generator), or the like. Here, LFO, EG, and the like are devices that indirectly control the pitch, volume, timbre, etc. of musical tones, so that the position of the hand or finger in a predetermined direction and the types of control parameters that control LFO, EG, etc. If the type or amount of the control parameter is determined from the position of the recognized hand or finger in the predetermined direction and supplied to the tone generator circuit 14, the desired musical sound characteristic can be indirectly obtained. Can be controlled.

なお、音源回路14として、奏法対応音源(たとえば、ビブラート奏法などの各種奏法で、実楽器を演奏したときに、実楽器から発生する楽音、すなわち、楽音特性が変更制御されている楽音をサンプリングして収録し、発音時に、奏法種類を指定することで、指定された奏法に対応した波形サンプルを読み出して発音する音源)を採用した場合には、認識した手や指の所定方向の位置に基づいて奏法種類を指定し、これに応じて、音源回路14から、楽音特性が制御された楽音を発生させるようにしてもよい。   The tone generator circuit 14 samples a musical sound generated by a real musical instrument when the real musical instrument is played with various musical performances such as a vibrato technique, that is, a musical sound whose musical characteristic is controlled to be changed. If a sound source that reads out and produces waveform samples corresponding to the specified performance method is adopted by specifying the type of performance during sound generation, it is based on the position of the recognized hand or finger in the specified direction. The musical performance type may be designated, and in response to this, a tone having a controlled tone characteristic may be generated from the tone generator circuit 14.

次に、検出回路3によって、鍵盤1aの離鍵が検出されると、CPU6は、処理を前記(4)の離鍵に応じた楽音の消音処理に進め、検出された離鍵に応じたキーオフイベントデータ、具体的には、その離鍵鍵の音高に対応するキーコードデータ、その離鍵に応じたベロシティデータおよびキーオフデータからなるキーオフイベントデータを生成して、音源回路14に供給する。これに応じて、音源回路14は、供給されたキーオフイベントデータに対応する発音中の楽音を消音する(ステップS7)。   Next, when the key release of the keyboard 1a is detected by the detection circuit 3, the CPU 6 advances the processing to the sound muting process according to the key release in (4), and the key off according to the detected key release. Event data, specifically key code data corresponding to the pitch of the key release key, key off event data including velocity data and key off data corresponding to the key release is generated and supplied to the tone generator circuit 14. In response to this, the tone generator circuit 14 mutes the tone being generated corresponding to the supplied key-off event data (step S7).

このように、本実施の形態では、撮像された画像に基づいて、各手にそれぞれ対応した音高グループ毎および/または各指にそれぞれ対応した音高毎に、異なる楽音特性を制御することができる。たとえば、右手の位置に基づいて、発音中の楽音にビブラートをかけ、左手の位置に基づいて、発音中の楽音にトレモロをかける、などの制御が可能になる。あるいは、指毎(音高毎)にビブラートのかけ具合を変えることができる。   Thus, in the present embodiment, different musical tone characteristics can be controlled for each pitch group corresponding to each hand and / or for each pitch corresponding to each finger, based on the captured image. it can. For example, it is possible to control such that a vibrato is applied to a musical sound being pronounced based on the position of the right hand and a tremolo is applied to a musical sound being pronounced based on the position of the left hand. Alternatively, the degree of vibrato can be changed for each finger (every pitch).

なお、上述した実施の形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムまたは装置に供給し、そのシステムまたは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の目的が達成されることは言うまでもない。   A program in which a storage medium storing software program codes for realizing the functions of the above-described embodiments is supplied to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus is stored in the storage medium. It goes without saying that the object of the present invention can also be achieved by reading and executing the code.

この場合、記憶媒体から読出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードおよび該プログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the novel function of the present invention, and the program code and the storage medium storing the program code constitute the present invention.

プログラムコードを供給するための記憶媒体としては、たとえば、フレキシブルディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。また、通信ネットワークを介してサーバコンピュータからプログラムコードが供給されるようにしてもよい。   As a storage medium for supplying the program code, for example, a flexible disk, hard disk, magneto-optical disk, CD-ROM, CD-R, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, DVD + RW, magnetic A tape, a non-volatile memory card, a ROM, or the like can be used. Further, the program code may be supplied from a server computer via a communication network.

また、コンピュータが読出したプログラムコードを実行することにより、上述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているOSなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also the OS running on the computer based on the instruction of the program code performs the actual processing. It goes without saying that a case where the functions of the above-described embodiment are realized by performing part or all of the above and the processing thereof is included.

さらに、記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって上述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written into a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明の一実施の形態に係る楽音制御装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the musical tone control apparatus which concerns on one embodiment of this invention. 図1中の撮像装置を構成する2台のカメラの設置の一例を示す図である。It is a figure which shows an example of installation of two cameras which comprise the imaging device in FIG. 図1の楽音制御装置、特にCPUが実行する楽音特性制御処理の手順を示すフローチャートである。2 is a flowchart showing a procedure of a musical tone characteristic control process executed by a musical tone control apparatus of FIG. 1, particularly a CPU. 図3のステップS4の演奏者の手および/または指の位置認識処理を説明するための図である。It is a figure for demonstrating the position recognition process of the player's hand and / or finger of step S4 of FIG.

符号の説明Explanation of symbols

5…撮像装置,6…CPU(入力手段、認識手段、制御手段),8…RAM(入力手段) 5 ... Imaging device, 6 ... CPU (input means, recognition means, control means), 8 ... RAM (input means)

Claims (2)

撮像装置から出力された、演奏者の手および/または指の画像データを入力する入力手段と、
該入力手段によって入力された、演奏者の手および/または指の画像データに基づいて、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置を認識する認識手段と、
該認識手段によって認識された、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置に基づいて、当該手および/または指に対応した音高グループ毎および/または音高毎独立に楽音特性を制御する制御手段と
を有することを特徴とする楽音制御装置。
Input means for inputting image data of a player's hand and / or finger output from the imaging device;
Based on the player's hand and / or finger image data input by the input means, at least one of the up and down direction, left and right direction and front and back direction of the player's hand and / or finger on the keyboard Recognition means for recognizing the position of
Based on the position of at least one of the up and down direction, left and right direction, and front and back direction of the player's hand and / or finger on the keyboard recognized by the recognizing means, the player corresponds to the hand and / or finger. A musical tone control apparatus comprising control means for controlling musical tone characteristics independently for each pitch group and / or for each pitch.
撮像装置から出力された、演奏者の手および/または指の画像データを入力する入力モジュールと、
該入力モジュールによって入力された、演奏者の手および/または指の画像データに基づいて、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置を認識する認識モジュールと、
該認識モジュールによって認識された、鍵盤上の演奏者の手および/または指の上下方向、左右方向および前後方向のうちの、少なくとも一方向の位置に基づいて、当該手および/または指に対応した音高グループ毎および/または音高毎独立に楽音特性を制御する制御モジュールと
をコンピュータに実行させるためのプログラム。
An input module for inputting image data of a player's hand and / or finger output from the imaging device;
Based on the player's hand and / or finger image data input by the input module, at least one of the up and down direction, left and right direction and front and back direction of the player's hand and / or finger on the keyboard A recognition module that recognizes the position of
The player's hand and / or finger on the keyboard recognized by the recognition module corresponds to the hand and / or finger based on the position in at least one of the vertical direction, left-right direction, and front-back direction. A program for causing a computer to execute a control module for controlling musical tone characteristics independently for each pitch group and / or for each pitch.
JP2006152156A 2006-05-31 2006-05-31 Musical sound control device and program Withdrawn JP2007322683A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006152156A JP2007322683A (en) 2006-05-31 2006-05-31 Musical sound control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006152156A JP2007322683A (en) 2006-05-31 2006-05-31 Musical sound control device and program

Publications (1)

Publication Number Publication Date
JP2007322683A true JP2007322683A (en) 2007-12-13

Family

ID=38855554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006152156A Withdrawn JP2007322683A (en) 2006-05-31 2006-05-31 Musical sound control device and program

Country Status (1)

Country Link
JP (1) JP2007322683A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012012066A1 (en) * 2012-06-15 2013-12-19 Werner Mohrlok Keyboard, has device dynamically dividing keyboard regions, where pre-defined instrument sound is produced in part of keyboard that is contained in right hand or left hand of musician hand while playing music
JP2016038529A (en) * 2014-08-11 2016-03-22 カシオ計算機株式会社 Music note guide device, music note guide method, program and electronic music instrument
KR101679239B1 (en) * 2010-07-06 2016-11-24 삼성전자주식회사 Apparatus and method for playing on musical instruments by augmented reality in portable terminal
WO2021192436A1 (en) * 2020-03-23 2021-09-30 ヤマハ株式会社 Playback control method, playback control system, and program
WO2022202267A1 (en) * 2021-03-25 2022-09-29 ヤマハ株式会社 Information processing method, information processing system, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101679239B1 (en) * 2010-07-06 2016-11-24 삼성전자주식회사 Apparatus and method for playing on musical instruments by augmented reality in portable terminal
DE102012012066A1 (en) * 2012-06-15 2013-12-19 Werner Mohrlok Keyboard, has device dynamically dividing keyboard regions, where pre-defined instrument sound is produced in part of keyboard that is contained in right hand or left hand of musician hand while playing music
JP2016038529A (en) * 2014-08-11 2016-03-22 カシオ計算機株式会社 Music note guide device, music note guide method, program and electronic music instrument
WO2021192436A1 (en) * 2020-03-23 2021-09-30 ヤマハ株式会社 Playback control method, playback control system, and program
WO2022202267A1 (en) * 2021-03-25 2022-09-29 ヤマハ株式会社 Information processing method, information processing system, and program

Similar Documents

Publication Publication Date Title
US7112738B2 (en) Electronic musical instrument
JP2007322683A (en) Musical sound control device and program
JP4720563B2 (en) Music control device
JP4379291B2 (en) Electronic music apparatus and program
JP2008008946A (en) Musical sound controller and program
JP2008139450A (en) Automatic accompaniment generator and program for achieving automatic accompaniment generating method
JP4765705B2 (en) Music control device
US10805475B2 (en) Resonance sound signal generation device, resonance sound signal generation method, non-transitory computer readable medium storing resonance sound signal generation program and electronic musical apparatus
JP6744522B2 (en) Performance system and control method
JP4613854B2 (en) Performance equipment
JP4720564B2 (en) Music control device
JP2007240929A (en) Key area dividing point determining device
WO2022209557A1 (en) Electronic musical instrument, electronic musical instrument control method, and program
JP3903864B2 (en) Program for realizing automatic composition device and automatic composition method
JP4075756B2 (en) Program for realizing automatic accompaniment apparatus and automatic accompaniment method
JP4483625B2 (en) Musical sound modulation device and program
JP4978176B2 (en) Performance device, performance realization method and program
JP4873307B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
JP2007155806A (en) Controller and computer program for electronic musical instrument
JP3991892B2 (en) Electronic musical instruments
JP3931848B2 (en) Waveform selection device and waveform selection program
JP4129794B2 (en) Program for realizing automatic accompaniment generation apparatus and automatic accompaniment generation method
US20060096446A1 (en) Automatic accompaniment apparatus, method of controlling the same, and program for implementing the method
JPH10240244A (en) Key depression indicating device
JP2001125572A (en) Electronic musical instrument, musical sound generation control method and storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20090804