JP2006178268A - Musical sound controller and musical sound control program - Google Patents

Musical sound controller and musical sound control program Download PDF

Info

Publication number
JP2006178268A
JP2006178268A JP2004372944A JP2004372944A JP2006178268A JP 2006178268 A JP2006178268 A JP 2006178268A JP 2004372944 A JP2004372944 A JP 2004372944A JP 2004372944 A JP2004372944 A JP 2004372944A JP 2006178268 A JP2006178268 A JP 2006178268A
Authority
JP
Japan
Prior art keywords
control parameter
sound
generated
chord
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004372944A
Other languages
Japanese (ja)
Inventor
Junichi Minamitaka
純一 南高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2004372944A priority Critical patent/JP2006178268A/en
Publication of JP2006178268A publication Critical patent/JP2006178268A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To realize a musical sound controller which creates a new pleasure to familiarize a user with music. <P>SOLUTION: A CPU 4 generates control parameters 1 to 3 changing according to the hue of image data imaged by an imaging input section consisting of a camera 7 and an A/D converter 3. The CPU selects chord data pit producing sound according to the control parameter 1 and generates the sound of the selected chord data pit when the control parameter 1 of the specified value or above is generated. During the sound production of the chord, the CPU performs the pitch control complying with the control parameter 2 and the sound image control complying with the control parameter 3. The CPU silences the chord during the sound production when the control parameter 2 of the specified value or above is generated. As a result, such a new pleasure which familiarizes the user with the music can be created. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、例えばパーソナルコンピュータを用いたDTM装置や電子楽器などに用いて好適な楽音制御装置および楽音制御プログラムに関する。   The present invention relates to a musical tone control device and a musical tone control program suitable for use in, for example, a DTM device using a personal computer or an electronic musical instrument.

マウス等のポインティングデバイスを用いて発生する楽音を制御する技術が知られている。例えば特許文献1には、ポインティングデバイスの操作で生じる二次元の位置情報に応じて、発生させる楽音の特性(音高、音量、音色および効果)を変化させ、従来の演奏操作子の操作よりも音の特性を変化させるための操作性を向上させて演奏表現の幅を広げる技術が開示されている。   A technique for controlling a musical sound generated using a pointing device such as a mouse is known. For example, in Patent Document 1, characteristics (pitch, volume, timbre, and effect) of a musical tone to be generated are changed in accordance with two-dimensional position information generated by a pointing device operation. Techniques have been disclosed for improving the operability for changing the characteristics of sounds and expanding the range of performance expressions.

特開2001−195069号公報JP 2001-195069 A

ところで、上記特許文献1に開示の技術は、音楽的素養をある程度備えたユーザを前提としており、そうしたユーザならば、ポインティング操作に対応する楽音の変化を予測できるから演奏表現の幅が広がるようになる。しかしながら、例えば幼児向けの音楽教習玩具のように、音楽に慣れ親しむことを目的とした場合には不向きになるという問題がある。
そこで本発明は、上述した事情に鑑みてなされたもので、音楽に慣れ親しみ易くするような新たな楽しみを創出することができる楽音制御装置および楽音制御プログラムを提供することを目的としている。
By the way, the technique disclosed in Patent Document 1 is premised on a user who has a certain degree of musical knowledge. If such a user can predict a change in musical sound corresponding to a pointing operation, the range of performance expression is widened. Become. However, there is a problem that it becomes unsuitable for the purpose of getting used to music, such as a music learning toy for infants.
Therefore, the present invention has been made in view of the above-described circumstances, and an object thereof is to provide a musical sound control device and a musical sound control program capable of creating new enjoyment that makes it easy to get used to music.

上記目的を達成するため、請求項1に記載の発明では、撮像した画像の色相に応じて変化する制御パラメータを発生する制御パラメータ発生手段と、前記制御パラメータ発生手段により生成される制御パラメータに対応して選択される種類の楽音を、当該制御パラメータの変化に応じて発音又は消音する楽音発生手段と、前記楽音発生手段が発音する楽音の発音形態を、前記制御パラメータ発生手段により生成される制御パラメータに応じて制御する発音形態制御手段とを具備することを特徴とする。   In order to achieve the above object, according to the first aspect of the present invention, the control parameter generating means for generating a control parameter that changes in accordance with the hue of the captured image and the control parameter generated by the control parameter generating means are supported. The tone generation means for generating or muting the type of musical sound selected in accordance with the change of the control parameter, and the control parameter generation means for generating the tone generation form of the tone generated by the musical sound generation means It is characterized by comprising sound generation form control means for controlling in accordance with parameters.

請求項2に記載の発明では、撮像した画像の色相に応じて変化する、少なくとも一つの制御パラメータを発生する制御パラメータ発生手段と、前記制御パラメータ発生手段により生成される制御パラメータの値に対応して選択される和音および分散和音の少なくとも一方の楽音を、前記制御パラメータ発生手段により生成される少なくとも一つの制御パラメータの値に応じて発音又は消音する楽音発生手段と、前記楽音発生手段が発音する楽音の音高および音像を、前記制御パラメータ発生手段により生成される少なくとも一つの制御パラメータに応じて各々制御する音高音像制御手段とを具備することを特徴とする。   According to the second aspect of the present invention, the control parameter generating means for generating at least one control parameter that changes in accordance with the hue of the captured image, and the value of the control parameter generated by the control parameter generating means. A tone generating means for sounding or muting at least one of the selected chords and distributed chords according to the value of at least one control parameter generated by the control parameter generating means; and the tone generating means Pitch sound image control means for controlling the pitch and sound image of the musical sound in accordance with at least one control parameter generated by the control parameter generating means.

請求項3に記載の発明では、撮像した画像の色相に応じて変化する制御パラメータを発生する制御パラメータ発生処理と、前記制御パラメータ発生処理により生成される制御パラメータに対応して選択される種類の楽音を、当該制御パラメータの変化に応じて発音又は消音する楽音発生処理と、前記楽音発生処理が発音する楽音の発音形態を、前記制御パラメータ発生処理にて生成される制御パラメータに応じて制御する発音形態制御処理とをコンピュータで実行させることを特徴とする。   According to the third aspect of the present invention, there is provided a control parameter generation process for generating a control parameter that changes in accordance with the hue of a captured image, and a type selected according to the control parameter generated by the control parameter generation process. A musical tone generation process for generating or muting a musical sound according to a change in the control parameter, and a musical sound generation form generated by the musical sound generation process are controlled according to the control parameter generated by the control parameter generation process. The sound generation form control processing is executed by a computer.

請求項4に記載の発明では、撮像した画像の色相に応じて変化する、少なくとも一つの制御パラメータを発生する制御パラメータ発生処理と、前記制御パラメータ発生処理により生成される制御パラメータの値に対応して選択される和音および分散和音の少なくとも一方の楽音を、前記制御パラメータ発生処理にて生成される少なくとも一つの制御パラメータの値に応じて発音又は消音する楽音発生処理と、前記楽音発生処理が発音する楽音の音高および音像を、前記制御パラメータ発生処理にて生成される少なくとも一つの制御パラメータに応じて各々制御する音高音像制御処理とをコンピュータで実行させることを特徴とする。   The invention according to claim 4 corresponds to a control parameter generation process for generating at least one control parameter that changes according to the hue of the captured image, and a value of the control parameter generated by the control parameter generation process. A tone generation process for generating or muting at least one tone of a chord and a distributed chord selected in accordance with a value of at least one control parameter generated in the control parameter generation process; and A pitch sound image control process for controlling a pitch and a sound image of a musical sound to be performed according to at least one control parameter generated by the control parameter generation process is executed by a computer.

請求項1、3に記載の発明では、撮像した画像の色相に応じて変化する制御パラメータを発生すると、その制御パラメータに対応して選択される種類の楽音を、当該制御パラメータの変化に応じて発音又は消音させる一方、発音した楽音の発音形態を制御パラメータに応じて制御するので、音楽に慣れ親しみ易くするような新たな楽しみを創出することができる。   In the first and third aspects of the invention, when a control parameter that changes in accordance with the hue of the captured image is generated, the type of musical sound that is selected corresponding to the control parameter is changed in accordance with the change in the control parameter. While sounding or muting is performed, the sounding form of the generated musical sound is controlled according to the control parameter, so that new enjoyment that makes it easy to get used to music can be created.

請求項2、4に記載の発明では、撮像した画像の色相に応じて変化する、少なくとも一つの制御パラメータを発生すると、生成される制御パラメータの値に対応して選択される和音および分散和音の少なくとも一方の楽音を、少なくとも一つの制御パラメータの値に応じて発音又は消音させる一方、発音する楽音の音高および音像を、少なくとも一つの制御パラメータに応じて各々制御するので、音楽に慣れ親しみ易くするような新たな楽しみを創出することができる。   According to the second and fourth aspects of the present invention, when at least one control parameter that changes in accordance with the hue of the captured image is generated, a chord and a distributed chord selected corresponding to the value of the generated control parameter At least one musical sound is sounded or muted according to the value of at least one control parameter, while the pitch and sound image of the musical sound to be generated are controlled according to at least one control parameter, respectively, so that the user can become familiar with music. Such new pleasure can be created.

以下、本発明の実施の形態について図面を参照して説明する。
A.構成
(1)全体構成
図1は、本発明の実施形態による楽音制御装置の全体構成を示すブロック図である。この図において、鍵盤1は、押離鍵操作(演奏操作)に応じたキーオン/キーオフ信号および鍵番号(キーナンバ)、ベロシティ等からなる演奏情報を発生する。スイッチ部2は、発生する楽音の音色を設定する音色スイッチ、伴奏パターンを選択するパターン選択スイッチの他、オンオフ操作に応じて和音の発音・消音を指示するAボタンや、伴奏音の発音・消音を指示するBボタンを備え、操作されるスイッチ(ボタン)種に対応したスイッチイベントを発生する。
Embodiments of the present invention will be described below with reference to the drawings.
A. Configuration (1) Overall Configuration FIG. 1 is a block diagram showing the overall configuration of a musical tone control apparatus according to an embodiment of the present invention. In this figure, the keyboard 1 generates performance information including a key-on / key-off signal, a key number (key number), velocity, and the like corresponding to a press / release key operation (performance operation). The switch unit 2 is a timbre switch for setting the tone color of the musical tone to be generated, a pattern selection switch for selecting an accompaniment pattern, an A button for instructing the on / off operation of a chord, and the on / off operation of the accompaniment sound. B button for instructing the switch, and a switch event corresponding to the type of switch (button) to be operated is generated.

表示部3は、LCDパネル等から構成され、後述するCPU4から供給される表示制御信号に応じて楽器各部の設定状態や動作モード等を表示したり、後述のカメラ7およびA/D変換器8からなる撮像入力部が入力する画像(あるいは映像)を画面表示する。
CPU4は楽器モード又は撮像入力モードで動作する。楽器モードで動作する場合、CPU4はスイッチ部2により生成されるスイッチイベントに基づき楽器各部の動作状態を設定したり、演奏情報に応じた楽音パラメータ(例えば、発音指示コマンドや消音指示コマンド等)を生成して楽音生成部9に送出する。一方、CPU4が画像入力モードで動作する場合、CPU4はスイッチ部2に設けられるAボタンやBボタンのオンオフ操作に応じて和音又は伴奏音の発音・消音を楽音生成部9に送出したり、後述のカメラ7およびA/D変換器8からなる撮像入力部が入力する画像データに応じて発音態様を変化させる制御パラメータ(例えば、音像を変化させるパンコントロール値あるいは音量を変化させるベンドコントロール値等)を生成して楽音生成部9に送出する。なお、本発明の要旨に関わるCPU4の撮像入力モード下での処理動作については追って詳述する。
The display unit 3 is composed of an LCD panel or the like, and displays a setting state and an operation mode of each unit of the musical instrument in accordance with a display control signal supplied from a CPU 4 to be described later, or a camera 7 and an A / D converter 8 to be described later. An image (or video) input by the imaging input unit is displayed on the screen.
The CPU 4 operates in the instrument mode or the imaging input mode. When operating in the musical instrument mode, the CPU 4 sets the operating state of each part of the musical instrument based on the switch event generated by the switch unit 2, and sets musical tone parameters (for example, a sound generation instruction command, a mute instruction command, etc.) according to performance information. It is generated and sent to the tone generator 9. On the other hand, when the CPU 4 operates in the image input mode, the CPU 4 sends a chord or accompaniment sound / mute to the musical sound generation unit 9 in response to an on / off operation of the A button or the B button provided in the switch unit 2, and will be described later. Control parameters that change the sound generation mode according to image data input by the imaging input unit including the camera 7 and the A / D converter 8 (for example, a pan control value that changes the sound image, a bend control value that changes the volume, etc.) Is transmitted to the musical sound generation unit 9. The processing operation of the CPU 4 under the imaging input mode related to the gist of the present invention will be described in detail later.

ROM5は、プログラムエリアとデータエリアとを備える。ROM5のプログラムエリアには、上記CPU4にロードされる各種制御プログラムが記憶される。ここで言う各種制御プログラムとは、後述するメインルーチン、変数生成処理、スイッチ処理、和音発音処理、伴奏音発音処理および伴奏進行処理を含む。また、ROM5のデータエリアには、和音データおよび伴奏パターンデータが格納されており、これらデータ構成については後述する。
RAM6は、各種レジスタ・フラグデータを格納するワークエリアと、カメラ7およびA/D変換器8からなる撮像入力部が入力する画像データを格納する画像データエリアと、画像バッファとを備える。ワークエリアおよび画像データエリアに格納される主要データの構成については後述する。
The ROM 5 includes a program area and a data area. Various control programs loaded on the CPU 4 are stored in the program area of the ROM 5. The various control programs referred to here include a main routine, variable generation processing, switch processing, chord sound generation processing, accompaniment sound generation processing, and accompaniment progression processing described later. In the data area of the ROM 5, chord data and accompaniment pattern data are stored, and the data structure will be described later.
The RAM 6 includes a work area for storing various register / flag data, an image data area for storing image data input by an imaging input unit including the camera 7 and the A / D converter 8, and an image buffer. The configuration of main data stored in the work area and the image data area will be described later.

カメラ7およびA/D変換器8からなる撮像入力部は、CPU4の制御の下に、CCD等から構成されるカメラ7が撮像する被写体の画像信号を、A/D変換器8により所定周期毎に画像データに変換してRAM6の画像バッファに格納する。楽音生成部9は、周知の波形データ読み出し方式で構成され、例えば撮像入力モード下では、CPU4からの和音(又は伴奏音)の発音(又は消音)の指示に従い、ROM5に記憶される和音データ(又は伴奏パターンデータ)に基づき和音(又は伴奏音)を再生すると共に、再生した和音(又は伴奏音)の発音態様をCPU4から供給される制御パラメータに応じて変化させて得た楽音データを出力する。D/A変換器10は、楽音生成部9から出力される楽音データをアナログ信号形式の楽音信号に変換して出力する。サウンドシステム11は、D/A変換器10から供給される楽音信号にノイズ除去等のフィルタリングを施した後、信号増幅してスピーカ(不図示)から放音する。   The imaging input unit composed of the camera 7 and the A / D converter 8 controls the image signal of the subject imaged by the camera 7 composed of a CCD or the like by the A / D converter 8 under a control of the CPU 4 at predetermined intervals. The image data is converted into image data and stored in the image buffer of the RAM 6. The tone generator 9 is configured by a well-known waveform data readout method. For example, under the imaging input mode, the chord data (stored in the ROM 5) (in accordance with an instruction to generate (or mute) a chord (or accompaniment tone) from the CPU 4) (Or accompaniment pattern data) is reproduced based on the chord (or accompaniment sound), and tone data obtained by changing the sounding mode of the reproduced chord (or accompaniment sound) according to the control parameter supplied from the CPU 4 is output. . The D / A converter 10 converts the musical tone data output from the musical tone generator 9 into a musical tone signal in an analog signal format and outputs the result. The sound system 11 performs filtering such as noise removal on the musical sound signal supplied from the D / A converter 10, then amplifies the signal and emits the sound from a speaker (not shown).

(2)データ構成
次に、図2〜図3を参照してROM5のデータエリアに格納される和音データおよび伴奏パターンデータの構成、RAM6のワークエリアに設けられる主要なレジスタ・フラグデータの構成およびRAM6の画像データエリアに格納される画像データの構成について説明する。
(2) Data Configuration Next, referring to FIGS. 2 to 3, the configuration of chord data and accompaniment pattern data stored in the data area of the ROM 5, the configuration of main register flag data provided in the work area of the RAM 6, and The configuration of image data stored in the image data area of the RAM 6 will be described.

図2(A)は、ROM5のデータエリアに格納される和音データの構造を示す図である。ROM5のデータエリアには、複数(MAXPIT数分)の和音データpit[0]〜[MAXPIT−1]が格納される。1つの和音データpit[n]は、複数の和音構成音[0]〜[WN−1](WNは和音構成音数)から構成される。和音データpit[n][m]で指定される和音構成音の音高は、MIDIノートナンバで表現される。   FIG. 2A shows the structure of chord data stored in the data area of the ROM 5. In the data area of the ROM 5, a plurality (for the number of MAXPIT) of chord data pit [0] to [MAXPIT-1] are stored. One chord data pit [n] is composed of a plurality of chord constituent sounds [0] to [WN-1] (WN is the number of chord constituent sounds). The pitch of the chord constituent sound specified by the chord data pit [n] [m] is expressed by a MIDI note number.

図2(B)は、ROM5のデータエリアに格納される伴奏パターンデータの構造を示す図である。伴奏パターンデータは、複数種の伴奏パターンapat[0]〜[MAXPAT−1]から構成される。1つの伴奏パターンapatは、ヘッダおよび複数の音符データanoteを備える。ヘッダは、パターン中に含まれる音符数maxnote、4分音符長のtick数(テンポクロック数)で表される分解能res、1小節中の4分音符の個数で表される拍beatおよび小節数で表されるパターン長lenから構成される。音符データanote[0]〜[maxnote−1]は、それぞれtick数で表現される発音開始時間timeおよび発音すべき音高および音量を表すノートオンイベントcomを有する。   FIG. 2B is a diagram showing the structure of accompaniment pattern data stored in the data area of the ROM 5. The accompaniment pattern data is composed of a plurality of types of accompaniment patterns apat [0] to [MAXPAT-1]. One accompaniment pattern apat includes a header and a plurality of note data anote. The header has a resolution res expressed by the number of notes maxnote included in the pattern, the number of ticks of the quarter note length (number of tempo clocks), the beat beat expressed by the number of quarter notes in one measure, and the number of measures. The pattern length len is represented. The note data annote [0] to [maxnote-1] has a sound generation start time time expressed by the number of ticks, and a note-on event com indicating the pitch and volume to be sounded.

図3(A)は、RAM6のワークエリアに設けられる主要なレジスタ・フラグデータの構成を示す図である。この図において、フラグhmnyは、和音の発音又は消音を指示するフラグであり、「1」の場合に発音を指示し、「2」の場合に消音を指示する。なお、イニシャライズ時点では、フラグhmnyに初期値「0」がセットされる。フラグdrumは、伴奏音の発音又は消音を指示するフラグであり、「1」の場合に発音を指示し、「2」の場合に消音を指示する。なお、イニシャライズ時点では、フラグdrumに初期値「0」がセットされる。制御パラメータparam1〜param3は、カメラ7およびA/D変換器8からなる撮像入力部が入力する画像データに応じて生成され、発音態様を変化させるパラメータとして用いられる。これら制御パラメータparam1〜param3が意図するところについては追って述べる。   FIG. 3A is a diagram showing a configuration of main register / flag data provided in the work area of the RAM 6. In this figure, a flag hmny is a flag for instructing the sounding or muting of a chord. In the case of “1”, the sounding is instructed, and in the case of “2”, the sounding is instructed. At the time of initialization, an initial value “0” is set in the flag hmny. The flag drum is a flag for instructing the sounding or muting of the accompaniment sound. When the flag is “1”, the sounding is instructed. When the flag is “2”, the muting is instructed. At the time of initialization, the initial value “0” is set in the flag drum. The control parameters param1 to param3 are generated according to image data input by the imaging input unit including the camera 7 and the A / D converter 8, and are used as parameters for changing the sound generation mode. The purpose of these control parameters param1 to param3 will be described later.

レジスタpitnには、選択された和音データpitの番号が一時記憶される。非発音時には、レジスタpitnに「−1」がストアされる。レジスタwaitには、待ち時間が一時記憶される。レジスタpitiには、選択された和音データpitにおいて発音中の和音構成音を示すインデックス値が一時記憶される。レジスタpatnには、選択された伴奏パターンapatの番号が一時記憶される。非発音時には、レジスタpatnに「−1」がストアされる。レジスタnoteiには、選択された伴奏パターンapatにおいて発音中の音符データanoteを示すインデックス値が一時記憶される。レジスタbasetimeには、伴奏発音を開始した時の現在時刻(msec単位)が一時記憶される。レジスタtickmeasprevには、後述の伴奏進行処理におけるパターン先頭からのtick数が一時記憶される。レジスタclriには、後述の画像データにおいて平均値を格納するレジスタを示すインデックス値が一時記憶される。   The number of the selected chord data pit is temporarily stored in the register pitn. At the time of non-sounding, “−1” is stored in the register pitn. The wait time is temporarily stored in the register wait. The register piti temporarily stores an index value indicating the chord constituent sound being generated in the selected chord data pit. The number of the selected accompaniment pattern apat is temporarily stored in the register patn. At the time of non-sounding, “−1” is stored in the register patn. The register notei temporarily stores an index value indicating the note data anote that is being sounded in the selected accompaniment pattern apat. The register basetime temporarily stores the current time (in msec units) when accompaniment sounding is started. The register tickmeasprev temporarily stores the number of ticks from the beginning of the pattern in the accompaniment progression process described later. The register clri temporarily stores an index value indicating a register for storing an average value in image data to be described later.

図3(B)は、RAM6の画像データエリアに格納される画像データの構成を示す図である。RAM6の画像データエリアには、カメラ7およびA/D変換器8からなる撮像入力部により撮像された画像データに対応したレジスタgrf[0]〜[MAXCLR−1]が設けられている。インデックス値clriで指定される任意のレジスタgrf[clri]は、撮像された画像データ中の赤色成分Rの平均値が格納されるレジスタgrf[clri][0]と、緑色成分Gの平均値が格納されるレジスタgrf[clri][1]と、青色成分Bの平均値が格納されるレジスタgrf[clri][2]とを備える。   FIG. 3B is a diagram showing a configuration of image data stored in the image data area of the RAM 6. In the image data area of the RAM 6, registers grf [0] to [MAXCLR-1] corresponding to the image data captured by the imaging input unit including the camera 7 and the A / D converter 8 are provided. An arbitrary register grf [clri] specified by the index value clri includes a register grf [clri] [0] in which an average value of the red component R in the captured image data is stored, and an average value of the green component G. A register grf [clri] [1] to be stored and a register grf [clri] [2] to store the average value of the blue component B are provided.

B.動作
次に、図4〜図9を参照して実施形態の動作について説明する。以下では、最初にメインルーチンの動作を説明した後、メインルーチンからコールされる変数生成処理、スイッチ処理、和音発音処理、伴奏音発音処理および伴奏進行処理の各動作を述べる。
B. Operation Next, the operation of the embodiment will be described with reference to FIGS. In the following, the operation of the main routine will be described first, and then the operations of variable generation processing, switch processing, chord sound generation processing, accompaniment sound generation processing, and accompaniment progression processing called from the main routine will be described.

(1)メインルーチンの動作
上記構成による楽音制御装置のパワーオンに応じて、CPU4は図4に示すメインルーチンを実行してステップSA1に処理を進め、RAM6のワークエリアに格納される各種レジスタやフラグ類をイニシャライズする初期処理を実行する。そして、ステップSA2に進み、カメラ7およびA/D変換器8からなる撮像入力部が撮像した画像データに基づいて発音態様を変化させる制御パラメータparam1〜3を発生すると共に、発生した制御パラメータparam1,2に応じて和音の発音/消音を指示するフラグhmnyを発生する変数生成処理を実行する。続いて、ステップSA3では、Aボタンのオンオフ操作に応じて和音の発音/消音を指示するフラグhmnyを設定したり、Bボタンのオンオフ操作に応じて伴奏音の発音/消音を指示するフラグdrumを設定するスイッチ処理を実行する。
(1) Operation of main routine In response to the power-on of the musical tone control apparatus having the above-described configuration, the CPU 4 executes the main routine shown in FIG. 4 and proceeds to step SA1, where various registers stored in the work area of the RAM 6 An initial process for initializing flags is executed. Then, the process proceeds to step SA2, and the control parameters param1 to 3 for changing the sound generation mode are generated based on the image data captured by the imaging input unit including the camera 7 and the A / D converter 8, and the generated control parameters param1, In response to 2, variable generation processing for generating a flag hmny for instructing chord pronunciation / mute is executed. Subsequently, in step SA3, a flag hmny for instructing the sounding / mute of chords is set according to the on / off operation of the A button, or the flag drum for instructing sounding / muteing of the accompaniment sound according to the on / off operation of the B button. Execute the switch process to be set.

次いで、ステップSA4では和音発音処理を実行する。和音発音処理では、後述するように、撮像した画像データ内容に基づき生成される制御パラメータparam1に応じて、発音させる和音データpit[pitn]を選択し、選択した和音データpit[pitn]を、Aボタンのオン操作あるいは赤色成分が多い画像を撮像した場合に発音させ、発音中には撮像した画像データ内容に基づき生成される制御パラメータparam2、param3に従って音量および音像を制御し、そして、Aボタンのオフ操作もしくは緑色成分が多い画像を撮像した場合に発音中の和音を消音させる。   Next, in step SA4, a chord sound generation process is executed. In the chord sound generation process, as will be described later, the chord data pit [pitn] to be sounded is selected according to the control parameter param1 generated based on the captured image data content, and the selected chord data pit [pitn] When the button is turned on or when an image having a large red component is captured, the sound is generated. During sound generation, the volume and sound image are controlled according to the control parameters param2 and param3 generated based on the captured image data contents, and the A button When an off operation or an image with a large amount of green component is captured, the chord being sounded is muted.

そして、ステップSA5に進み、Bボタンのオンオフ操作に応じて伴奏音の発音又は消音を指示する伴奏音発音処理を実行する。次に、ステップSA6では、例えば、鍵盤1が発生する演奏情報に応じた楽音パラメータ(例えば、発音指示コマンドや消音指示コマンド等)を生成して楽音生成部9に送出する等の、その他の処理を実行した後、上述のステップSA2に処理を戻す。以後、CPU4は装置電源がパワーオフされる迄、上述したステップSA2〜SA6の動作を繰り返す。   Then, the process proceeds to step SA5, where accompaniment sound generation processing for instructing the sound generation or muting of the accompaniment sound is executed in accordance with the ON / OFF operation of the B button. Next, in step SA6, for example, other processing such as generating musical tone parameters (for example, a sound generation instruction command, a mute instruction command, etc.) corresponding to the performance information generated by the keyboard 1 and sending it to the musical sound generation unit 9 is performed. Is executed, the process returns to step SA2 described above. Thereafter, the CPU 4 repeats the operations in steps SA2 to SA6 described above until the apparatus power is turned off.

(2)変数生成処理の動作
次に、図5を参照して変数生成処理の動作を説明する。上述したステップSA2(図4参照)を介して本処理が実行されると、CPU4は図5に示すステップSB1に進む。ステップSB1では、カメラ7およびA/D変換器8からなる撮像入力部が撮像した複数フレーム分の画像データを、一旦RAM6の画像バッファ(不図示)に転送し、この画像バッファ中の複数フレーム分の画像データから赤色成分R、緑色成分Gおよび青色成分Bの各平均値、つまり色相を抽出する。そして、RAM6の画像データエリアのインデックス値clriで指定されたレジスタgrf[clri][0]〜[clri][2]に、抽出した赤色成分R、緑色成分Gおよび青色成分Bの各平均値をストアする。その後、インデックス値clriを更新する。
(2) Operation of Variable Generation Processing Next, the operation of variable generation processing will be described with reference to FIG. When this process is executed through the above-described step SA2 (see FIG. 4), the CPU 4 proceeds to step SB1 shown in FIG. In step SB1, image data for a plurality of frames picked up by the image pickup input unit including the camera 7 and the A / D converter 8 is temporarily transferred to an image buffer (not shown) of the RAM 6, and the plurality of frames in the image buffer are stored. Average values of the red component R, the green component G, and the blue component B, that is, the hue is extracted from the image data. The average values of the extracted red component R, green component G, and blue component B are stored in the registers grf [clri] [0] to [clri] [2] designated by the index value clri of the image data area of the RAM 6. Store. Thereafter, the index value clri is updated.

次いで、ステップSB2では、レジスタgrf[][0]に格納した赤色成分Rの平均値を制御パラメータparam1に、レジスタgrf[][1]に格納した緑色成分Gの平均値を制御パラメータparam2に、レジスタgrf[][2]に格納した青色成分Bの平均値を制御パラメータparam3にそれぞれ設定する。
次に、ステップSB3では、制御パラメータparam1が予め設定される閾値THR1より大きいか否かを判断する。閾値THR1より大きければ、判断結果は「YES」になり、ステップSB4に進み、フラグhmnyに「1」をセットして和音の発音を指示する状態に設定した後、ステップSB5に進む。したがって、撮像入力した画像の赤色成分Rが多い場合に自動的に和音発音が指示されることになる。
Next, in step SB2, the average value of the red component R stored in the register grf [] [0] is set as the control parameter param1, the average value of the green component G stored in the register grf [] [1] is set as the control parameter param2. The average value of the blue component B stored in the register grf [] [2] is set in the control parameter param3.
Next, in step SB3, it is determined whether or not the control parameter param1 is larger than a preset threshold value THR1. If it is greater than the threshold value THR1, the determination result is “YES”, the process proceeds to step SB4, the flag hmny is set to “1” to indicate a chord pronunciation, and then the process proceeds to step SB5. Therefore, the chord pronunciation is automatically instructed when the red component R of the captured image is large.

一方、制御パラメータparam1が閾値THR1より小さいと、上記ステップSB3の判断結果は「NO」になり、ステップSB5に進む。ステップSB5では、制御パラメータparam2が予め設定される閾値THR2より大きいか否かを判断する。閾値THR2より大きければ、判断結果は「YES」になり、ステップSB6に進み、フラグhmnyに「2」をセットして和音の消音を指示する状態に設定した後、本処理を完了させる。したがって、撮像入力した画像の緑色成分Gが多い場合に自動的に和音消音が指示されることになる。これに対し、制御パラメータparam2が閾値THR2より小さいと、上記ステップSB5の判断結果は「NO」になり、本処理を完了させる。   On the other hand, if the control parameter param1 is smaller than the threshold value THR1, the determination result in step SB3 is “NO”, and the process proceeds to step SB5. In step SB5, it is determined whether or not the control parameter param2 is larger than a preset threshold value THR2. If it is greater than the threshold value THR2, the determination result is “YES”, the process proceeds to step SB6, the flag hmny is set to “2” and the chord mute is instructed, and then this process is completed. Therefore, when there is a large amount of the green component G in the image input, the chord mute is automatically instructed. On the other hand, if the control parameter param2 is smaller than the threshold value THR2, the determination result in step SB5 is “NO”, and this process is completed.

このように、変数生成処理では、カメラ7およびA/D変換器8からなる撮像入力部が撮像した画像データに基づいて発音態様を変化させる制御パラメータparam1〜3を発生すると共に、発生した制御パラメータparam1,2に応じて和音の発音/消音を指示するフラグhmnyを発生するようになっている。   As described above, in the variable generation process, the control parameters param1 to 3 that change the sound generation mode based on the image data captured by the imaging input unit including the camera 7 and the A / D converter 8 are generated, and the generated control parameters are generated. A flag hmny for instructing the sounding / muteing of chords is generated in accordance with param1 and param2.

(3)スイッチ処理の動作
次に、図6を参照してスイッチ処理の動作を説明する。上述したステップSA3(図4参照)を介して本処理が実行されると、CPU4は図6に示すステップSC1に進む。ステップSC1〜SC8では、操作されるスイッチ種に応じた処理を実行する。以下では、Aボタンがオン操作された場合、Aボタンがオフ操作された場合、Bボタンがオン操作された場合およびBボタンがオフ操作された場合に分けて動作説明を進める。
(3) Operation of Switch Processing Next, the operation of switch processing will be described with reference to FIG. When this process is executed through the above-described step SA3 (see FIG. 4), the CPU 4 proceeds to step SC1 shown in FIG. In steps SC1 to SC8, processing corresponding to the operated switch type is executed. In the following description, the operation will be described separately for the case where the A button is turned on, the case where the A button is turned off, the case where the B button is turned on, and the case where the B button is turned off.

<Aボタンがオン操作された場合>
Aボタンがオン操作されると、ステップSC1の判断結果が「YES」になり、ステップSC2に進み、フラグhmnyに「1」をセットして和音の発音を指示する。
<When button A is turned on>
When the A button is turned on, the determination result in step SC1 is “YES”, the process proceeds to step SC2, and “1” is set in the flag hmny to instruct the generation of a chord.

<Aボタンがオフ操作された場合>
Aボタンがオフ操作されると、ステップSC3の判断結果が「YES」になり、ステップSC4に進み、フラグhmnyに「2」をセットして和音の消音を指示する。
<When button A is turned off>
When the A button is turned off, the determination result in step SC3 is “YES”, the process proceeds to step SC4, and “2” is set in the flag hmny to instruct the muting of the chord.

<Bボタンがオン操作された場合>
Bボタンがオン操作されると、ステップSC5の判断結果が「YES」になり、ステップSC6に進み、フラグdrumに「1」をセットして伴奏音の発音を指示する。
<When button B is turned on>
When the B button is turned on, the determination result in step SC5 becomes “YES”, and the process proceeds to step SC6, where “1” is set in the flag drum to instruct the pronunciation of the accompaniment sound.

<Bボタンがオフ操作された場合>
Bボタンがオフ操作されると、ステップSC7の判断結果が「YES」になり、ステップSC8に進み、フラグdrumに「2」をセットして伴奏音の消音を指示する。この後、ステップSC9に進み、例えば音色スイッチの操作に応じて発生楽音の音色を設定する等の、その他のスイッチ処理を実行した後、本処理を完了させる。
このように、スイッチ処理では、Aボタンのオンオフ操作に応じて和音の発音/消音を指示するフラグhmnyを設定したり、Bボタンのオンオフ操作に応じて伴奏音の発音/消音を指示するフラグdrumを設定するようになっている。
<When button B is turned off>
When the B button is turned off, the determination result in step SC7 becomes “YES”, and the process proceeds to step SC8, where “2” is set in the flag drum to instruct to mute the accompaniment sound. Thereafter, the process proceeds to step SC9, and after executing other switch processing such as setting the tone color of the generated musical tone according to the operation of the tone color switch, this processing is completed.
As described above, in the switch processing, the flag hmny for instructing the sounding / muteing of the chord is set according to the on / off operation of the A button, or the flag drum for instructing the sounding / muteing of the accompaniment sound according to the on / off operation of the B button. Is set.

(4)和音発音処理の動作
次に、図7を参照して和音発音処理の動作を説明する。上述したステップSA4(図4参照)を介して本処理が実行されると、CPU4は図7に示すステップSD1に進む。ステップSD1以降では、未発音状態で発音が指示されたかどうか(ステップSD1)、発音中に消音が指示されたかどうか(ステップSD5)、発音中であるかどうか(ステップSD10)を状態判定する。以下では、これら状態判定に対応させて、未発音状態で発音が指示された場合、発音中に消音が指示された場合および発音中の場合に分けて各場合の動作を説明する。
(4) Operation of Chord Sound Generation Process Next, the operation of the chord sound generation process will be described with reference to FIG. When this process is executed via step SA4 (see FIG. 4) described above, the CPU 4 proceeds to step SD1 shown in FIG. After step SD1, it is determined whether or not sound generation is instructed in a non-sounding state (step SD1), whether mute is instructed during sounding (step SD5), and whether sounding is in progress (step SD10). In the following, corresponding to these state determinations, the operation in each case will be described separately when sound generation is instructed in an unsound state, mute is instructed during sound generation, and when sound generation is in progress.

<未発音状態で発音が指示された場合>
ステップSD1では、フラグhmnyが「1」であって、レジスタpitnの値が「−1」、すなわち未発音状態で発音が指示されているか否かを判断する。ここで、例えば未発音状態の時に、Aボタンのオン操作に応じてフラグhmnyが「1」に設定されたり、あるいは赤色成分が多い画像を撮像して得られる制御パラメータparam1に基づきフラグhmnyが「1」に設定されたとする。 そうすると、上記ステップSD1の判断結果が「YES」となり、ステップSD2に進む。ステップSD2では、制御パラメータparam1の値を和音データpitの数MAXPITで除した時の剰余値を和音番号としてレジスタpitn(和音番号pitnと称す)にストアすると共に、この和音番号pitnで指定される和音データpit[pitn]の和音構成音をサーチするポインタnをゼロリセットする。
<When pronunciation is instructed in an unsound state>
In step SD1, it is determined whether or not the flag hmny is “1” and the value of the register pitn is “−1”, that is, whether or not sound generation is instructed. Here, for example, in the state of no sound, the flag hmny is set to “1” in response to the ON operation of the A button, or the flag hmny is set to “1” based on the control parameter param1 obtained by capturing an image with many red components. It is assumed that “1” is set. If it does so, the judgment result of the said step SD1 will become "YES", and will progress to step SD2. In step SD2, a remainder value obtained by dividing the value of the control parameter param1 by the number MAXPIIT of the chord data pit is stored as a chord number in a register pitn (referred to as a chord number pitn), and the chord specified by the chord number pitn is stored. The pointer n for searching for a chord constituent sound of the data pit [pitn] is reset to zero.

次いで、ステップSD3では、ポインタnが和音データpit[pitn]の構成音数WNより小さいか否かを判断する。つまり、和音データpit[pitn]の和音構成音を全て発音させたかどうかを判断する。全て発音させていなければ、判断結果は「YES」になり、ステップSD4に進む。ステップSD4では、ポインタnが指定する和音データpit[pitn][n](和音構成音の音高)をROM5のデータエリア(図2参照)から読み出してレジスタpにストアすると共に、レジスタchにポインタnをストアし、さらにレジスタvに音量値「110」をセットする。   Next, in step SD3, it is determined whether or not the pointer n is smaller than the number of constituent sounds WN of the chord data pit [pitn]. That is, it is determined whether all the chord constituent sounds of the chord data pit [pitn] have been generated. If not all are pronounced, the determination result is “YES”, and the process proceeds to step SD4. In step SD4, the chord data pit [pitn] [n] (pitch of the chord constituent sound) designated by the pointer n is read from the data area of the ROM 5 (see FIG. 2), stored in the register p, and pointer to the register ch. n is stored, and the volume value “110” is set in the register v.

そして、レジスタpにストアされた音高の楽音を、レジスタchで指定される発音チャンネルからレジスタvの音量値で発音させるよう楽音生成部9に指示する。この後、ポインタnをインクリメントして歩進させて上記ステップSD3に処理を戻す。
以後、ステップSD3〜SD4を繰り返し、和音番号pitnで指定される和音データpit[pitn]の構成音数WNを超えるまでポインタnを歩進させながら、当該和音データpit[pitn]中の和音構成音を全て発音させる。そして、全て発音させると、ステップSD3の判断結果が「NO」になり、一旦本処理を完了させる。
Then, the musical tone generation unit 9 is instructed to sound the musical tone having the pitch stored in the register p from the sound generation channel specified by the register ch with the volume value of the register v. Thereafter, the pointer n is incremented and incremented, and the process returns to step SD3.
Thereafter, steps SD3 to SD4 are repeated, and the chord constituent sound in the chord data pit [pitn] is incremented while the pointer n is incremented until the number of constituent sounds WN of the chord data pit [pitn] specified by the chord number pitn is exceeded. Pronounce all. When all the sounds are generated, the determination result in step SD3 is “NO”, and this process is once completed.

<発音中に消音が指示された場合>
この場合、上記ステップSD1の判断結果が「NO」になり、ステップSD5に進み、フラグhmnyが「2」であって、レジスタpitnの値が「−1」でない状態、つまり発音中に消音が指示されているか否かを判断する。ここで、例えば発音中に、Aボタンのオフ操作に応じてフラグhmnyが「2」に設定されたり、あるいは緑色の色相が多い画像を撮像して得られる制御パラメータparam2に基づきフラグhmnyが「2」に設定されたとする。そうすると、上記ステップSD5の判断結果が「YES」となり、ステップSD6に進む。
<When mute is instructed during pronunciation>
In this case, the determination result in step SD1 is “NO”, the process proceeds to step SD5, the flag hmny is “2”, and the value of the register pitn is not “−1”, that is, mute is instructed during sound generation. It is judged whether it is done. Here, for example, during sound generation, the flag hmny is set to “2” according to the OFF operation of the A button, or the flag hmny is set to “2” based on the control parameter param2 obtained by capturing an image with a lot of green hues. ”Is set. If it does so, the judgment result of the said step SD5 will become "YES", and will progress to step SD6.

ステップSD6では、ポインタnをゼロリセットし、続くステップSD7では、ポインタnが和音データpit[pitn]の構成音数WNより小さいか否かを判断する。つまり、和音データpit[pitn]の和音構成音を全て消音させたかどうかを判断する。全て消音させていなければ、判断結果は「YES」になり、ステップSD8に進む。ステップSD8では、発音状態にある和音データpit[pitn]中でポインタnが指定する和音データpit[pitn][n](和音構成音の音高)をレジスタpにストアすると共に、レジスタchにポインタnをストアし、そして、レジスタpにストアされた音高の楽音を、レジスタchで指定される発音チャンネルから消音させるよう楽音生成部9に指示する。この後、ポインタnをインクリメントして歩進させて上記ステップSD7に処理を戻す。   In step SD6, the pointer n is reset to zero, and in the subsequent step SD7, it is determined whether or not the pointer n is smaller than the number of constituent sounds WN of the chord data pit [pitn]. That is, it is determined whether all the chord constituent sounds of the chord data pit [pitn] have been muted. If all the sound is not muted, the determination result is “YES”, and the flow proceeds to step SD8. In step SD8, the chord data pit [pitn] [n] (pitch of the chord constituent sound) designated by the pointer n in the chord data pit [pitn] in the sounding state is stored in the register p and the pointer is stored in the register ch. n is stored, and the musical tone generation unit 9 is instructed to mute the musical tone of the pitch stored in the register p from the sound generation channel specified by the register ch. Thereafter, the pointer n is incremented and incremented, and the process returns to step SD7.

以後、ステップSD7〜SD8を繰り返し、和音番号pitnで指定される和音データpit[pitn]の構成音数WNを超えるまでポインタnを歩進させながら、当該和音データpit[pitn]中の和音構成音を全て消音させる。そして、全て消音させると、ステップSD7の判断結果が「NO」になり、ステップSD9に進み、和音番号pitnに消音状態を表す値「−1」をストアして、一旦本処理を完了させる。   Thereafter, steps SD7 to SD8 are repeated, and the chord constituent sound in the chord data pit [pitn] is incremented while incrementing the pointer n until the number of constituent sounds WN of the chord data pit [pitn] specified by the chord number pitn is exceeded. Mute all. When all the sounds are muted, the determination result in step SD7 is “NO”, the process proceeds to step SD9, the value “−1” representing the muted state is stored in the chord number pitn, and this processing is once completed.

<発音中の場合>
この場合、上記ステップSD1、SD5の各判断結果が「NO」になり、ステップSD10に進み、レジスタpitnの値が「−1」でない状態、つまり発音中であるか否かを判断する。発音中であると、判断結果が「YES」になり、ステップSD11に進み、ポインタnをゼロリセットする。続いて、ステップSD12では、ポインタnが和音データpit[pitn]の構成音数WNより小さいか否かを判断する。ポインタnが構成音数WNを超えていなければ、判断結果は「YES」になり、ステップSD13に進む。
<When sounding>
In this case, each determination result in steps SD1 and SD5 is “NO”, and the process proceeds to step SD10 to determine whether the value of the register pitn is not “−1”, that is, whether sounding is being performed. If the sound is being generated, the determination result is “YES”, the process proceeds to step SD11, and the pointer n is reset to zero. Subsequently, in step SD12, it is determined whether or not the pointer n is smaller than the number of constituent sounds WN of the chord data pit [pitn]. If the pointer n does not exceed the number of constituent sounds WN, the determination result is “YES”, and the flow proceeds to step SD13.

ステップSD13では、制御パタメータparam2に応じて音量制御するベンドコントロールと、制御パラメータparam3に応じて音像制御するパンコントロールとを楽音生成部9に指示する。具体的には、制御パタメータparam2に対応したピッチベンドチェンジメッセージと、制御パタメータparam3に対応したパンコントロールチェンジメッセージとを生成して楽音生成部9に供給する。この後、ポインタnをインクリメントして歩進させて上記ステップSD12に処理を戻す。   In step SD13, the tone generator 9 is instructed to perform bend control for volume control according to the control parameter param2 and pan control for sound image control according to the control parameter param3. Specifically, a pitch bend change message corresponding to the control parameter param2 and a pan control change message corresponding to the control parameter param3 are generated and supplied to the tone generation unit 9. Thereafter, the pointer n is incremented and incremented, and the process returns to step SD12.

以後、ステップSD12〜SD13を繰り返し、構成音数WNを超えるまでポインタnを歩進させながら、制御パタメータparam2および制御パタメータparam3に応じて、発音中の構成音の音量および音像を制御する。そして、発音中の全ての和音構成音について音量および音像を制御し終えると、ステップSD12の判断結果が「NO」になり、一旦本処理を完了させる。   Thereafter, steps SD12 to SD13 are repeated, and the volume and sound image of the constituent sound being sounded are controlled according to the control parameter param2 and the control parameter param3 while the pointer n is incremented until the number of constituent sounds WN is exceeded. When the control of the volume and the sound image is completed for all the chord constituent sounds that are sounding, the determination result in step SD12 is “NO”, and this processing is once completed.

このように、和音発音処理では、撮像した画像データ内容に基づき生成される制御パラメータparam1に応じて発音する和音データpit[pitn]を選択し、選択した和音データpit[pitn]を、Aボタンのオン操作もしくは赤色成分が多い画像を撮像した場合に発音させ、発音中には撮像した画像データ内容に基づき生成される制御パラメータparam2、param3に従って音量および音像を制御し、そして、Aボタンのオフ操作もしくは緑色成分が多い画像を撮像した場合に発音中の和音を消音させる。   As described above, in the chord sound generation process, the chord data pit [pitn] to be generated is selected according to the control parameter param1 generated based on the captured image data content, and the selected chord data pit [pitn] is selected by the A button. The sound is generated when an on operation or an image having a large red component is picked up. During sound generation, the sound volume and sound image are controlled according to the control parameters param2 and param3 generated based on the content of the picked up image data, and the A button is turned off. Alternatively, when an image with a large amount of green component is captured, the chord being sounded is muted.

(5)伴奏発音処理の動作
次に、図8を参照して伴奏発音処理の動作を説明する。上述したステップSA5(図4参照)を介して本処理が実行されると、CPU4は図8に示すステップSE1に処理を進め、フラグdrumが「1」であって、かつレジスタpatnの値が「−1」、すなわち未発音状態で伴奏音の発音が指示されているか否かを判断する。未発音状態で伴奏音の発音が指示されていなければ、判断結果は「NO」になり、後述するステップSE3に処理を進める。
一方、例えば未発音状態の時に、Bボタンのオン操作に応じてフラグdrumが「1」に設定されると、ここでの判断結果が「YES」になり、ステップSE2に進む。
(5) Accompaniment Sound Generation Operation Next, the accompaniment sound generation operation will be described with reference to FIG. When this process is executed via the above-described step SA5 (see FIG. 4), the CPU 4 advances the process to step SE1 shown in FIG. 8, the flag drum is “1”, and the value of the register patn is “ -1 ", that is, whether or not the generation of the accompaniment sound is instructed in the unsound state. If the sound of the accompaniment sound is not instructed in the unsound state, the determination result is “NO”, and the process proceeds to step SE3 described later.
On the other hand, for example, if the flag drum is set to “1” in response to the ON operation of the B button in the non-sounding state, the determination result here is “YES”, and the process proceeds to step SE2.

ステップSE2では、制御パラメータparam3の値を伴奏パターンapatの数MAXPATで除した時の剰余値を伴奏パターン番号としてレジスタpatn(伴奏パターン番号patnと称す)にストアすると共に、この伴奏パターン番号patnで指定される伴奏パターンapat[patn]を構成する音符データanote[0]〜[maxnote−1]を指定するインデックス値を保持するレジスタnotei(インデックスnoteiと称す)をゼロリセットする。さらに、msec単位で表される現在時刻を伴奏開始時刻としてレジスタbasetimeにストアすると共に、レジスタtickmeasprevをゼロリセットして本処理を完了させる。   In step SE2, the remainder value obtained by dividing the value of the control parameter param3 by the number of accompaniment patterns apat MAXPAT is stored as an accompaniment pattern number in a register patn (referred to as accompaniment pattern number patn), and designated by this accompaniment pattern number patn. A register notei (referred to as index notei) holding an index value for specifying note data notes [0] to [maxnote-1] constituting the accompaniment pattern apat [patn] is reset to zero. Further, the current time expressed in msec units is stored in the register basetime as the accompaniment start time, and the register tickmeasprev is reset to zero to complete this processing.

ステップSE3では、フラグdrumが「2」であって、かつレジスタpatnの値が「−1」でないか否か、つまり発音中に伴奏音の消音が指示されたかどうかを判断する。発音中に伴奏音の消音が指示されていなければ、判断結果は「NO」になり、本処理を完了させる。
一方、例えば伴奏音の発音中に、Bボタンのオフ操作に応じてフラグdrumが「2」に設定されると、ここでの判断結果が「YES」になり、ステップSE4に進み、伴奏パターン番号patnに「−1」をセットして未発音状態(伴奏進行停止状態)に設定して本処理を終える。
In step SE3, it is determined whether or not the flag drum is “2” and the value of the register patn is not “−1”, that is, whether or not the accompaniment sound mute is instructed during sound generation. If mute of the accompaniment sound is not instructed during sound generation, the determination result is “NO”, and this process is completed.
On the other hand, for example, if the flag drum is set to “2” in response to the OFF operation of the B button while the accompaniment sound is being generated, the determination result here is “YES”, and the process proceeds to step SE4, where the accompaniment pattern number is set. “−1” is set to patn to set to a non-sounding state (accompaniment progress stop state), and this processing is finished.

(6)伴奏進行処理の動作
次に、図9を参照して伴奏進行処理の動作を説明する。伴奏進行処理は、タイマ割込みにて所定周期毎に実行される。実行タイミングになると、CPU4は図9に図示するステップSF1に処理を進め、伴奏パターン番号patnが「−1」でないか、つまり伴奏進行しているかどうかを判断する。伴奏パターン番号patnに「−1」がセットされ、未発音状態(伴奏進行停止状態)であれば、判断結果は「NO」になり、何も行わずに本処理を完了させる。これに対し、伴奏進行していれば、上記ステップSF1の判断結果が「YES」になり、ステップSF2に進む。
(6) Accompaniment Progression Process Next, the accompaniment progression process will be described with reference to FIG. The accompaniment progression process is executed at predetermined intervals by timer interruption. At the execution timing, the CPU 4 advances the process to step SF1 shown in FIG. 9, and determines whether the accompaniment pattern number patn is not “−1”, that is, whether the accompaniment is in progress. If the accompaniment pattern number patn is set to “−1” and the sound is not sounded (accompaniment progression stop state), the determination result is “NO”, and this process is completed without performing anything. On the other hand, if the accompaniment is in progress, the determination result in step SF1 is “YES”, and the process proceeds to step SF2.

ステップSF2では、次式(1)に各値を代入して現在時刻を、レジスタbasetimeに格納される伴奏開始時刻からの経過時間tickに換算する。
tick=(現在時刻−basetime)×apat[patn].res×tempo/(60×1000) …(1)
なお、上記(1)式において、apat[patn].resとは、前述した伴奏発音処理のステップSE2(図8参照)において、制御パラメータparam3の値に応じて選択された伴奏パターンapat[patn]中の分解能resを表し、tempoは再生テンポ(1分間中の4分音符数)を表す。
In step SF2, each value is substituted into the following equation (1) to convert the current time into an elapsed time tick from the accompaniment start time stored in the register basetime.
tick = (current time−basetime) × apat [patn]. res × tempo / (60 × 1000) (1)
In the above equation (1), apat [patn]. Res represents the resolution res in the accompaniment pattern apat [patn] selected according to the value of the control parameter param3 in step SE2 (see FIG. 8) of the accompaniment sounding process described above, and tempo represents the playback tempo (1 minute). Middle quarter note number).

また、ステップSF2では、次式(2)に各値を代入して経過時間tickを伴奏パターンapat[patn]中の位置tickmeasに換算する。
tickmeas=(tick/(apat[patn].res×apat[patn].beat×apat[patn].len))の剰余 …(2) なお、上記(2)式において、apat[patn].resは、選択された伴奏パターンapat[patn]中の分解能resを表す。apat[patn].beatは、選択された伴奏パターンapat[patn]中の拍beatを表す。apat[patn].lenは、選択された伴奏パターンapat[patn]中のパターン長lenを表す。
In step SF2, each value is substituted into the following equation (2) to convert the elapsed time tick into a position tickmeas in the accompaniment pattern apat [patn].
tickmeas = (tick / (apat [patn] .res × apat [patn] .beat × apat [patn] .len)) remainder (2) In the above equation (2), apat [patn]. res represents the resolution res in the selected accompaniment pattern apat [patn]. apat [patn]. beat represents a beat beat in the selected accompaniment pattern apat [patn]. apat [patn]. len represents the pattern length len in the selected accompaniment pattern apat [patn].

次に、ステップSF3では、経過時間tickから換算した現在の位置tickmeasが、前回算出した前位置tickmeasprevより小さいか否かを判断する。現在の位置tickmeasが前位置tickmeasprevを超えていなければ、判断結果は「YES」になり、ステップSF4に進む。ステップSF4では、選択された伴奏パターンapat[patn]を構成する音符データanote[0]〜[maxnote−1]を指定するインデックスnoteiをゼロリセットしてステップSF5に進む。   Next, in step SF3, it is determined whether or not the current position tickmeas converted from the elapsed time tick is smaller than the previous position tickmeasprev calculated last time. If the current position tickmeas does not exceed the previous position tickmeasprev, the determination result is “YES”, and the flow proceeds to step SF4. In step SF4, the index notei specifying the note data notes [0] to [maxnote-1] constituting the selected accompaniment pattern apat [patn] is reset to zero and the process proceeds to step SF5.

一方、現在の位置tickmeasが前位置tickmeasprevを超えていると、上記ステップSF3の判断結果が「NO」になり、ステップSF5に進む。ステップSF5では、インデックスnoteiが、選択された伴奏パターンapat[patn]中に含まれる音符数maxnoteより小さいか否か、すなわちパターン中の全ての音符データを再生し終えたかどうかを判断する。パターン中の全ての音符データを再生し終えているならば、判断結果は「NO」になり、ステップSF9に進み、現在の位置tickmeasを、前位置tickmeasprevに更新して本処理を終える。   On the other hand, if the current position tickmeas exceeds the previous position tickmeasprev, the determination result in step SF3 is “NO”, and the process proceeds to step SF5. In step SF5, it is determined whether or not the index notei is smaller than the number of notes maxnote included in the selected accompaniment pattern apat [patn], that is, whether or not all the note data in the pattern has been reproduced. If all the note data in the pattern has been reproduced, the determination result is “NO”, the process proceeds to step SF9, the current position tickmeas is updated to the previous position tickmeasprev, and this process is terminated.

これに対し、パターン中の全ての音符データを再生し終えていない場合には、上記ステップSF5の判断結果が「YES」となり、ステップSF6に進む。
ステップSF6では、インデックスnoteiで指定される音符データapat[patn].anote[notei]を、レジスタnoteにストアする。これにより、レジスタnoteには、当該音符データanote[notei]の発音開始時間timeおよび発音すべき音高および音量を表すノートオンイベントcomが格納される。
On the other hand, if all the note data in the pattern has not been reproduced, the determination result in step SF5 is “YES”, and the flow advances to step SF6.
In step SF6, the note data apat [patn]. Note [notei] is stored in the register note. As a result, a note-on event “com” indicating the sound generation start time “time” of the note data “note [notei]” and the pitch and volume to be sounded is stored in the register note.

そして、ステップSF7では、現在の位置tickmeasが、レジスタnote中の発音時間time以上であるか、つまり発音タイミングであるかどうかを判断する。現在の位置tickmeasが発音時間timeより小さい場合には、発音タイミングに達していないとして、判断結果が「NO」となり、ステップSF9に進み、現在の位置tickmeasを、前位置tickmeasprevに更新して本処理を終える。   In step SF7, it is determined whether or not the current position tickmeas is equal to or longer than the sound generation time time in the register note, that is, the sound generation timing. If the current position tickmeas is smaller than the sound generation time time, it is determined that the sound generation timing has not been reached, the determination result is “NO”, the process proceeds to step SF9, the current position tickmeas is updated to the previous position tickmeasprev, and this processing is performed. Finish.

一方、現在の位置tickmeasが、レジスタnote中の発音時間time以上の発音タイミング下にあると、上記ステップSF7の判断結果が「YES」になり、ステップSF8に進み、レジスタnoteに格納されるノートオンイベントcomを楽音生成部9に送出して伴奏音の発音を指示した後、インデックスnoteiを歩進させて上述のステップSF5に処理を戻す。以後、上述したステップSF5〜SF8を繰り返し実行することによって、指定された伴奏パターンを構成する各音が順次再生される。   On the other hand, if the current position tickmeas is under the sounding timing equal to or longer than the sounding time time in the register note, the determination result in step SF7 is “YES”, the process proceeds to step SF8, and the note-on stored in the register note After sending the event com to the musical tone generation unit 9 to instruct the sound generation of the accompaniment sound, the index notei is incremented, and the process returns to step SF5 described above. Thereafter, by repeatedly executing the above steps SF5 to SF8, the sounds constituting the designated accompaniment pattern are sequentially reproduced.

以上のように、本実施形態では、カメラ7およびA/D変換器8からなる撮像入力部が撮像した画像データの色相に応じて変化する制御パラメータparam1〜3を発生させる。そして、制御パラメータparam1に応じて発音させる和音データpitを選択し、選択した和音データpitを、一定値以上の制御パラメータparam1が発生した時に発音させ、和音発音中には制御パラメータparam2に従った音量制御と制御パラメータparam3に従った音像制御とを行い、一定値以上の制御パラメータparam2が発生した時に発音中の和音を消音させる。
このように、撮像した画像データの色相に応じて変化する制御パラメータparam1〜3に従って和音演奏することができるため、音楽に慣れ親しみ易くするような新たな楽しみを創出することが可能になる。
As described above, in the present embodiment, the control parameters param 1 to 3 that change according to the hue of the image data captured by the imaging input unit including the camera 7 and the A / D converter 8 are generated. Then, the chord data pit to be sounded is selected according to the control parameter param1, and the selected chord data pit is sounded when the control parameter param1 exceeding a certain value is generated, and the sound volume according to the control parameter param2 is generated during the sounding of the chord. Control and sound image control according to the control parameter param3 are performed, and when a control parameter param2 of a certain value or more is generated, the chord being sounded is muted.
As described above, since the chord performance can be performed according to the control parameters param 1 to 3 that change in accordance with the hue of the captured image data, it is possible to create new enjoyment that makes it easy to get used to music.

(7)変形例(アルペジェータ処理)の動作
次に、図10を参照して変形例について説明する。図10は、前述した和音発音処理(図7参照)に替えて実行されるアルペジェータ処理の動作を示すフローチャートである。アルペジェータ処理は、タイマ割込みにて所定周期毎に実行される。実行タイミングになると、CPU4は図10に図示するステップSG1に処理を進める。
ステップSG1以降では、和音の発音が指示されたかどうか(ステップSG1およびSG2)、発音中に消音が指示されたかどうか(ステップSG6)の状態判別を行う。したがって、以下では、和音の発音が指示された場合と発音中に消音が指示された場合とに分けて動作説明を進める。
(7) Operation of Modified Example (Arpeggiator Processing) Next, a modified example will be described with reference to FIG. FIG. 10 is a flowchart showing an arpeggiator process performed in place of the above-described chord sound generation process (see FIG. 7). The arpeggiator process is executed at predetermined intervals by timer interruption. At the execution timing, the CPU 4 advances the process to step SG1 shown in FIG.
In step SG1 and subsequent steps, state determination is performed as to whether or not a chord sound is instructed (steps SG1 and SG2) and whether mute is instructed during sound generation (step SG6). Therefore, in the following, the description of the operation will be divided into a case where pronunciation of a chord is instructed and a case where mute is instructed during pronunciation.

<和音の発音が指示された場合>
この場合、フラグhmnyが「1」となるので、ステップSG1の判断結果が「YES」になり、ステップSG2に進む。ステップSG2では、レジスタpitnの値(和音番号)が「−1」、すなわち未発音状態であるか否かを判断する。
未発音状態で和音発音が指示されると、上記ステップSG2の判断結果は「YES」となり、最初の1音の発音を開始させる処理を行うため、後述のステップSG5に進む。
<When chord pronunciation is instructed>
In this case, since the flag hmny is “1”, the determination result in step SG1 is “YES”, and the process proceeds to step SG2. In step SG2, it is determined whether or not the value of the register pitn (chord number) is “−1”, that is, the sound is not generated.
If chord pronunciation is instructed in the unsounded state, the determination result in step SG2 is “YES”, and the process proceeds to step SG5 described later in order to perform the process of starting the first sound.

一方、既に発音中であると、上記ステップSG2の判断結果は「NO」となり、ステップSG3に進む。ステップSG3では、待ち時間を計時するカウンタwaitを経過時間分減算し、続くステップSG4では、経過時間分減算したカウンタwaitの待ち時間が「0」より大きいか否か、すなわち次の1音の発音タイミングであるかどうかを判断する。経過時間分減算したカウンタwaitの待ち時間が「0」より大きく、発音タイミングに達していない時には、上記ステップSG4の判断結果が「YES」になり、何も行わずに本処理を完了させる。   On the other hand, if it is already sounding, the determination result in step SG2 is “NO”, and the process proceeds to step SG3. In step SG3, the counter wait for counting the waiting time is subtracted by the elapsed time, and in the subsequent step SG4, whether or not the waiting time of the counter wait subtracted by the elapsed time is greater than “0”, that is, the next one sound generation. Determine if it is timing. When the waiting time of the counter wait after subtracting the elapsed time is larger than “0” and the sound generation timing has not been reached, the determination result of the above step SG4 becomes “YES”, and this processing is completed without doing anything.

これに対し、経過時間分減算したカウンタwaitの待ち時間が「0」より小さくなり、発音タイミングになると、上記ステップSG4の判断結果は「NO」となり、ステップSG4−1に進む。ステップSG4−1では、発音中の和音データpit[pitn]において、レジスタpitiに格納されるインデックス値で指定される和音データpit[pitn][piti](構成音の音高)をレジスタpにストアすると共に、レジスタchに「1」をストアし、そして、レジスタpにストアされた音高の楽音を、レジスタchで指定される発音チャンネルから消音させるよう楽音生成部9に指示する。これにより発音中の和音構成音が消音される。その後、次の1音の発音を開始させる処理を行うため、ステップSG5に進む。   On the other hand, when the waiting time of the counter wait after subtracting the elapsed time becomes smaller than “0” and the sound generation timing is reached, the determination result in step SG4 is “NO”, and the process proceeds to step SG4-1. In step SG4-1, the chord data pit [pitn] [piti] (pitch of the constituent sound) specified by the index value stored in the register piti is stored in the register p in the chord data pit [pitn] being generated. At the same time, “1” is stored in the register ch, and the musical tone generation unit 9 is instructed to mute the musical tone of the pitch stored in the register p from the sound generation channel specified by the register ch. As a result, the chord constituent sound being generated is muted. Thereafter, the process proceeds to step SG5 in order to perform processing for starting the next sound generation.

ステップSG5では、次の処理を行う。先ず、0〜127の範囲で生成した乱数に応じてパン制御を行い、続いて、0〜(WN−1)の範囲、つまり現在選択されている和音データpit[pitn]の構成音数WNの範囲で生成した乱数をインデックス値としてレジスタpitiにストアする。次に、制御パラメータparam1を和音データ数MAXPITで除算した剰余値を和音番号としてレジスタpitnにストアする。
次いで、レジスタpitnにストアされた新たな和音番号で指定される和音データpit[pitn]において、レジスタpitiに格納されるインデックス値で指定される構成音の音高pit[pitn][piti]を、ROM5のデータエリア(図2参照)から読み出してレジスタpにストアすると共に、レジスタchに「1」をストアし、さらにレジスタvに音量値「110」をセットする。
そして、レジスタpにストアされた音高の楽音を、レジスタchで指定される発音チャンネルからレジスタvの音量値で発音させるよう楽音生成部9に指示した後、制御パラメータparam2に応じた待ち時間をカウンタwaitにセットして本処理を終える。
In step SG5, the following processing is performed. First, pan control is performed according to the random numbers generated in the range of 0 to 127, and then the range of 0 to (WN−1), that is, the number of constituent sounds WN of the currently selected chord data pit [pitn]. The random number generated in the range is stored in the register piti as an index value. Next, a remainder value obtained by dividing the control parameter param1 by the chord data number MAXPIT is stored in the register pitn as a chord number.
Next, in the chord data pit [pitn] specified by the new chord number stored in the register pitn, the pitch pit [pitn] [piti] of the constituent sound specified by the index value stored in the register piti is obtained. The data is read from the data area of the ROM 5 (see FIG. 2) and stored in the register p, “1” is stored in the register ch, and the volume value “110” is set in the register v.
Then, after instructing the musical sound generation unit 9 to generate the musical tone of the pitch stored in the register p from the sound generation channel specified by the register ch with the volume value of the register v, a waiting time corresponding to the control parameter param2 is set. The counter wait is set and the process is finished.

<発音中に消音が指示された場合>
この場合、フラグhmnyが「2」となり、かつレジスタpitnの値(和音番号)が「−1」ではない状態なので、ステップSG6の判断結果が「YES」になり、ステップSG7に進み、発音中の和音データpit[pitn]において、レジスタpitiに格納されるインデックス値で指定される和音データpit[pitn][piti](構成音の音高)をレジスタpにストアすると共に、レジスタchに「1」をストアし、そして、レジスタpにストアされた音高の楽音を、レジスタchで指定される発音チャンネルから消音させるよう楽音生成部9に指示した後、レジスタpitnに「−1」をストアして本処理を終える。これにより発音中の和音構成音が消音されるとともに、発音状態が未発音状態に設定される。
<When mute is instructed during pronunciation>
In this case, since the flag hmny is “2” and the value of the register pitn (chord number) is not “−1”, the determination result in step SG6 is “YES”, and the process proceeds to step SG7, where sound is being generated. In the chord data pit [pitn], the chord data pit [pitn] [piti] (pitch of the constituent sound) specified by the index value stored in the register piti is stored in the register p and “1” is stored in the register ch. , And the musical tone generator 9 is instructed to mute the musical tone of the pitch stored in the register p from the sound generation channel specified by the register ch, and then “−1” is stored in the register pitn. This process is finished. As a result, the chord constituent sound being sounded is muted and the sounding state is set to the unsounding state.

以上説明したように、変形例では、撮像した画像データの色相に応じて変化する制御パラメータparam1,2に従ってアルペジオ演奏することができるため、音楽に慣れ親しみ易くするような新たな楽しみを創出することが可能になる。   As described above, in the modified example, since the arpeggio can be played according to the control parameters param 1 and 2 that change according to the hue of the captured image data, it is possible to create new enjoyment that makes it easy to get used to music. It becomes possible.

なお、上述した実施形態では、撮像した画像データの色相に応じて変化する制御パラメータparam1〜3に従って和音演奏する一例について言及したが、これに限らず、例えば人の顔を撮像した画像データに、周知の顔画像認識処理を施して顔認識させ、認識した顔の「眉」、「目」、「鼻」および「口」などの配置関係に応じて発生する楽音の発音形態を変化させ、これにより音楽に慣れ親しみ易く新たな楽しみを創出する態様とすることも可能である。   In the above-described embodiment, an example in which a chord performance is performed according to the control parameters param1 to 3 that change according to the hue of the captured image data has been described. Applying a well-known face image recognition process to recognize the face, change the sound generation form of the generated sound according to the arrangement relationship such as "brow", "eyes", "nose" and "mouth" of the recognized face, Therefore, it is possible to make it easy to become familiar with music and to create new enjoyment.

本発明による実施形態の全体構成を示すブロック図である。It is a block diagram which shows the whole structure of embodiment by this invention. ROM5に記憶される和音データの構造および伴奏パターンデータの構造を示す図である。It is a figure which shows the structure of the chord data memorize | stored in ROM5, and the structure of accompaniment pattern data. RAM6のワークエリアに設けられる主要なレジスタ・フラグデータの構成およびRAM6の画像データエリアに格納される画像データの構成を示す図である。3 is a diagram showing a configuration of main register flag data provided in a work area of a RAM 6 and a configuration of image data stored in an image data area of the RAM 6. FIG. メインルーチンの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a main routine. 変数生成処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a variable production | generation process. スイッチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a switch process. 和音発音処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a chord sound generation process. 伴奏音処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of an accompaniment sound process. 伴奏進行処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of an accompaniment progress process. 変形例によるアルペジェータ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the arpeggiator process by a modification.

符号の説明Explanation of symbols

1 鍵盤
2 スイッチ部
3 表示部
4 CPU
5 ROM
6 RAM
7 カメラ
8 A/D変換器
9 楽音生成部
10 D/A変換器
11 サウンドシステム
1 Keyboard 2 Switch part 3 Display part 4 CPU
5 ROM
6 RAM
7 Camera 8 A / D converter 9 Musical sound generator 10 D / A converter 11 Sound system

Claims (4)

撮像した画像の色相に応じて変化する制御パラメータを発生する制御パラメータ発生手段と、
前記制御パラメータ発生手段により生成される制御パラメータに対応して選択される種類の楽音を、当該制御パラメータの変化に応じて発音又は消音する楽音発生手段と、
前記楽音発生手段が発音する楽音の発音形態を、前記制御パラメータ発生手段により生成される制御パラメータに応じて制御する発音形態制御手段と
を具備することを特徴とする楽音制御装置。
Control parameter generating means for generating a control parameter that changes according to the hue of the captured image;
A musical sound generating means for generating or muting a musical sound of a type selected in accordance with a control parameter generated by the control parameter generating means;
A tone control apparatus comprising: a tone generation mode control unit that controls a tone generation mode of a tone generated by the tone generation unit according to a control parameter generated by the control parameter generation unit.
撮像した画像の色相に応じて変化する、少なくとも一つの制御パラメータを発生する制御パラメータ発生手段と、
前記制御パラメータ発生手段により生成される制御パラメータの値に対応して選択される和音および分散和音の少なくとも一方の楽音を、前記制御パラメータ発生手段により生成される少なくとも一つの制御パラメータの値に応じて発音又は消音する楽音発生手段と、
前記楽音発生手段が発音する楽音の音高および音像を、前記制御パラメータ発生手段により生成される少なくとも一つの制御パラメータに応じて各々制御する音高音像制御手段と
を具備することを特徴とする楽音制御装置。
Control parameter generating means for generating at least one control parameter that changes according to the hue of the captured image;
According to the value of at least one control parameter generated by the control parameter generating means, at least one of the chords and the distributed chords selected corresponding to the value of the control parameter generated by the control parameter generating means is selected. A musical sound generating means to pronounce or mute,
A pitch tone image control means for controlling a pitch and a tone image of the tone generated by the tone generation means according to at least one control parameter generated by the control parameter generation means; Control device.
撮像した画像の色相に応じて変化する制御パラメータを発生する制御パラメータ発生処理と、
前記制御パラメータ発生処理により生成される制御パラメータに対応して選択される種類の楽音を、当該制御パラメータの変化に応じて発音又は消音する楽音発生処理と、
前記楽音発生処理が発音する楽音の発音形態を、前記制御パラメータ発生処理にて生成される制御パラメータに応じて制御する発音形態制御処理と
をコンピュータで実行させることを特徴とする楽音制御プログラム。
Control parameter generation processing for generating a control parameter that changes according to the hue of the captured image;
A musical tone generation process for generating or muting a musical tone of a type selected in accordance with the control parameter generated by the control parameter generating process, according to a change in the control parameter;
A musical tone control program for causing a computer to execute a sound generation pattern control process for controlling a sound generation pattern generated by the music sound generation process in accordance with a control parameter generated by the control parameter generation process.
撮像した画像の色相に応じて変化する、少なくとも一つの制御パラメータを発生する制御パラメータ発生処理と、
前記制御パラメータ発生処理により生成される制御パラメータの値に対応して選択される和音および分散和音の少なくとも一方の楽音を、前記制御パラメータ発生処理にて生成される少なくとも一つの制御パラメータの値に応じて発音又は消音する楽音発生処理と、
前記楽音発生処理が発音する楽音の音高および音像を、前記制御パラメータ発生処理にて生成される少なくとも一つの制御パラメータに応じて各々制御する音高音像制御処理と
をコンピュータで実行させることを特徴とする楽音制御プログラム。
A control parameter generation process for generating at least one control parameter that changes according to the hue of the captured image;
According to the value of at least one control parameter generated in the control parameter generation process, at least one of the chords and the distributed chords selected corresponding to the control parameter value generated by the control parameter generation process Musical sound generation processing to pronounce or mute
A pitch sound image control process for controlling a pitch and a sound image of a musical sound generated by the musical sound generation process according to at least one control parameter generated in the control parameter generation process. Tone control program.
JP2004372944A 2004-12-24 2004-12-24 Musical sound controller and musical sound control program Pending JP2006178268A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004372944A JP2006178268A (en) 2004-12-24 2004-12-24 Musical sound controller and musical sound control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004372944A JP2006178268A (en) 2004-12-24 2004-12-24 Musical sound controller and musical sound control program

Publications (1)

Publication Number Publication Date
JP2006178268A true JP2006178268A (en) 2006-07-06

Family

ID=36732430

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004372944A Pending JP2006178268A (en) 2004-12-24 2004-12-24 Musical sound controller and musical sound control program

Country Status (1)

Country Link
JP (1) JP2006178268A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165098A (en) * 2006-12-29 2008-07-17 Sounos Co Ltd Electronic musical instrument
JP2010122566A (en) * 2008-11-21 2010-06-03 Osaka Prefecture Univ Color/tone conversion device
JP2011509419A (en) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for automatically generating sound associated with a lighting atmosphere
JP2012039394A (en) * 2010-08-06 2012-02-23 Olympus Imaging Corp Image recording and reproducing device and sound information addition device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008165098A (en) * 2006-12-29 2008-07-17 Sounos Co Ltd Electronic musical instrument
JP2011509419A (en) * 2007-12-20 2011-03-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ System and method for automatically generating sound associated with a lighting atmosphere
JP2010122566A (en) * 2008-11-21 2010-06-03 Osaka Prefecture Univ Color/tone conversion device
JP2012039394A (en) * 2010-08-06 2012-02-23 Olympus Imaging Corp Image recording and reproducing device and sound information addition device

Similar Documents

Publication Publication Date Title
JP4752425B2 (en) Ensemble system
JP7347479B2 (en) Electronic musical instrument, control method for electronic musical instrument, and its program
JP6402878B2 (en) Performance device, performance method and program
JP6728755B2 (en) Singing sound generator
JP2007093820A (en) Concert system
JP4131279B2 (en) Ensemble parameter display device
JP2010139592A (en) Musical tone generating apparatus and musical tone generating program
JP2006178268A (en) Musical sound controller and musical sound control program
JP6977741B2 (en) Information processing equipment, information processing methods, performance data display systems, and programs
JP6817551B2 (en) Musical tone generator, musical tone generator, program and electronic musical instrument
JP2010243617A (en) Musical performance guiding device and program
JP6210356B2 (en) Performance device, performance method and program
JP4069892B2 (en) Musical amusement system
JP2013160871A (en) Performance guide device and program
JP4345433B2 (en) Performance device and performance processing program
JP7338669B2 (en) Information processing device, information processing method, performance data display system, and program
JP3940999B2 (en) Performance device and performance method
JP2006184392A (en) Musical tone controller unit and musical tone control program
JP5338101B2 (en) Electronic music apparatus and performance processing program
JP2004341385A (en) Apparatus and program for musical performance recording and reproduction
JP3543159B2 (en) Automatic accompaniment device
JP5029770B2 (en) Performance support information generation apparatus and performance support information generation program
JP4816930B2 (en) Performance support information generation apparatus and performance support information generation program
JP2012220861A (en) Musical sound generating device and program
JP2013011658A (en) Performance instructing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070621

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081029

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090122