JP2016018107A - Musical sound generation instruction device, musical sound generation instruction method, program, and electric musical instrument - Google Patents

Musical sound generation instruction device, musical sound generation instruction method, program, and electric musical instrument Download PDF

Info

Publication number
JP2016018107A
JP2016018107A JP2014141364A JP2014141364A JP2016018107A JP 2016018107 A JP2016018107 A JP 2016018107A JP 2014141364 A JP2014141364 A JP 2014141364A JP 2014141364 A JP2014141364 A JP 2014141364A JP 2016018107 A JP2016018107 A JP 2016018107A
Authority
JP
Japan
Prior art keywords
musical
instrument
type
generation instruction
musical sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014141364A
Other languages
Japanese (ja)
Other versions
JP6451926B2 (en
JP2016018107A5 (en
Inventor
雄一 西村
Yuichi Nishimura
雄一 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014141364A priority Critical patent/JP6451926B2/en
Publication of JP2016018107A publication Critical patent/JP2016018107A/en
Publication of JP2016018107A5 publication Critical patent/JP2016018107A5/ja
Application granted granted Critical
Publication of JP6451926B2 publication Critical patent/JP6451926B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a musical sound generation device, which generates a musical sound of a musical instrument kind corresponding to a performance form.SOLUTION: A musical sound generation instruction device includes steps of: acquiring a state of a housing 10 on the basis of each output of three attitude sensors 16a-16c provided inside of the housing 10; discriminating whether the housing 10 corresponds to any performance form of a "guitar", a "violin", a "piano", and a "clarinet" from the acquired state; displaying an image of a musical instrument kind corresponding to the discriminated performance form on display part 14; and instructing a sound source to generate a sound corresponding to performance operation made in a touch panel 15 corresponding to the discriminated musical instrument kind.SELECTED DRAWING: Figure 1

Description

本発明は、演奏形態に合致した楽器種の楽音を発生する楽音発生指示装置、楽音発生指示方法、プログラムおよび電子楽器に関する。   The present invention relates to a musical sound generation instruction device, a musical sound generation instruction method, a program, and an electronic musical instrument that generate musical sounds of musical instrument types that match a performance form.

表示画面上にタッチ操作を検出するタッチパネルを設け、このタッチパネルのタッチ操作に応じて楽音制御する技術が知られている。この種の装置として、例えば特許文献1には、タッチパネル上のタッチ操作によってピアノ等の楽器位置(音源位置)を指定すると、その指定位置が表示パネル(表示画面)に表示されると共に、指定位置を表す位置情報が音像位置、リバーブ効果、音の周波数特性等の制御情報に変換し、変換された制御情報に基づいて各楽器(音源)が発生する楽音信号のパラメータを制御して臨場感豊かな音場を再現する技術が開示されている。   There is known a technique in which a touch panel for detecting a touch operation is provided on a display screen, and musical sound control is performed according to the touch operation of the touch panel. As this type of device, for example, in Patent Document 1, when a musical instrument position (sound source position) such as a piano is designated by a touch operation on the touch panel, the designated position is displayed on the display panel (display screen), and the designated position is also displayed. Is converted into control information such as sound image position, reverb effect, sound frequency characteristics, etc., and the parameters of the musical sound signal generated by each instrument (sound source) are controlled based on the converted control information to enrich the presence A technique for reproducing a simple sound field is disclosed.

特開平07−005873号公報JP 07-005873 A

ところで、上記特許文献1に開示の技術では、タッチパネル上で指定される各楽器位置(音源位置)に応じて、各楽器(音源)毎の音像位置、リバーブ効果、音の周波数特性等を表す制御情報を発生し、この制御情報に従って各楽器(音源)が発生する楽音を制御して臨場感豊かな音場を再現するだけなので、演奏形態に合致した楽器種の楽音を発生することが出来ない、という問題がある。   By the way, in the technique disclosed in Patent Document 1, control representing a sound image position, a reverb effect, a sound frequency characteristic, and the like for each instrument (sound source) according to each instrument position (sound source position) specified on the touch panel. Since only information is generated and the musical sound generated by each instrument (sound source) is controlled according to this control information to reproduce a realistic sound field, it is not possible to generate musical sounds of instrument types that match the performance form. There is a problem.

本発明は、このような事情に鑑みてなされたもので、演奏形態に合致した楽器種の楽音を発生することが出来る楽音発生装置、楽音発生方法、プログラムおよび電子楽器を提供することを目的としている。   The present invention has been made in view of such circumstances, and it is an object of the present invention to provide a musical sound generating device, a musical sound generating method, a program, and an electronic musical instrument that can generate musical sounds of musical instrument types that match a performance form. Yes.

上記目的を達成するため、本発明の楽音発生装置は、
筺体の姿勢を表す姿勢情報を取得する取得手段と、
前記取得手段により取得された姿勢情報に基づいた種別の楽器を判別する楽器種別判別手段と、
前記筐体上に設けられ、前記楽器種別判別手段により判別された種別の楽器を示す画像を表示する表示手段と、
前記表示手段により表示されている画像に基づいて定められている演奏操作がなされたか否かを判別する演奏操作判別手段と、
前記演奏操作判別手段により演奏操作がなされたと判別された場合に、前記表示手段により表示されている画像が示す種別の楽器に対応する楽音の発生を、音源に指示する楽音発生指示手段と、
を具備することを特徴とする。
In order to achieve the above object, the musical sound generating device of the present invention comprises:
Obtaining means for obtaining posture information representing the posture of the housing;
Instrument type discrimination means for discriminating a type of instrument based on the posture information acquired by the acquisition means;
A display unit provided on the housing for displaying an image indicating the type of instrument determined by the instrument type determination unit;
A performance operation determining means for determining whether or not a performance operation defined based on the image displayed by the display means has been performed;
Musical sound generation instruction means for instructing the sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed by the display means when it is determined that the performance operation has been performed by the performance operation determination means;
It is characterized by comprising.

本発明の楽音発生方法は、
楽音発生装置が、
筺体の姿勢を表す姿勢情報を取得し、
前記取得された姿勢情報に基づいた種別の楽器を判別し、
前記筐体上に設けられた表示手段に、前記判別された種別の楽器を示す画像を表示させ、
前記表示手段に表示させた画像に基づいて定められている演奏操作がなされたか否かを判別し、
前記演奏操作がなされたと判別された場合に、前記表示手段に表示させた画像が示す種別の楽器に対応する楽音の発生を音源に指示する、
ことを特徴とする。
The musical sound generation method of the present invention includes:
The musical sound generator
Obtain posture information that represents the posture of the skeleton,
Determine the type of instrument based on the acquired posture information,
The display means provided on the housing displays an image showing the determined type of musical instrument,
Determining whether a performance operation defined based on the image displayed on the display means has been performed;
When it is determined that the performance operation has been performed, the sound source is instructed to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed on the display means.
It is characterized by that.

本発明のプログラムは、
筐体と、前記筐体上に設けられた表示手段とを有する楽音発生指示装置として用いられるコンピュータに、
前記筺体の姿勢を表す姿勢情報を取得する取得ステップと、
前記取得された姿勢情報に基づいた種別の楽器を判別する楽器種別判別ステップと、
前記判別された種別の楽器を示す画像を前記表示手段に表示させる表示ステップと、
前記表示手段に表示させた画像に基づいて定められている演奏操作がなされたか否かを判別する演奏操作判別ステップと、
前記演奏操作がなされたと判別された場合に、前記表示手段に表示させた画像が示す種別の楽器に対応する楽音の発生を、音源に指示する楽音発生指示ステップと、
を実行させることを特徴とする。
The program of the present invention
In a computer used as a musical sound generation instruction device having a housing and a display means provided on the housing,
An acquisition step of acquiring posture information representing the posture of the housing;
A musical instrument type determination step of determining a type of musical instrument based on the acquired posture information;
A display step of causing the display means to display an image indicating the determined type of instrument;
A performance operation determining step for determining whether or not a performance operation defined based on the image displayed on the display means has been performed;
A musical sound generation instruction step for instructing the sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed on the display means when it is determined that the performance operation has been performed;
Is executed.

本発明では、演奏形態に合致した楽器種の楽音を発生することが出来る。   In the present invention, it is possible to generate musical tones of musical instrument types that match the performance form.

本発明の実施の一形態による楽音発生装置100の外観を示す外観図である。It is an external view which shows the external appearance of the musical sound generator 100 by one Embodiment of this invention. 楽音発生装置100の構成を示すブロック図である。2 is a block diagram showing a configuration of a musical sound generator 100. FIG. メインルーチンの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a main routine. スイッチ処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a switch process. イニシャルスイッチ処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of an initial switch process. 固定スイッチ処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a fixed switch process. 表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a display process. 図7に続く表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the display process following FIG. 演奏処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of a performance process. 図9に続く演奏処理の動作を示すフローチャートである。FIG. 10 is a flowchart showing the performance processing operation following FIG. 9. FIG. 楽器種を判別する条件1を満たして「ギター」と特定される筺体姿勢の一例を示す図である。It is a figure which shows an example of the body posture which satisfy | fills the conditions 1 which discriminate | determine an instrument type, and is identified as "guitar". 楽器種を判別する条件2を満たして「バイオリン」と特定される筺体姿勢の一例を示す図である。It is a figure which shows an example of the body posture which satisfy | fills the conditions 2 which discriminate | determine an instrument kind, and is identified as "violin". 楽器種を判別する条件3を満たして「ピアノ」と特定される筺体姿勢の一例を示す図である。It is a figure which shows an example of the body posture which satisfy | fills the conditions 3 which discriminate | determine a musical instrument kind, and is identified as "piano". 楽器種を判別する条件4を満たして「クラリネット」と特定される筺体姿勢の一例を示す図である。It is a figure which shows an example of the body posture which satisfy | fills the conditions 4 which discriminate | determine a musical instrument type, and is identified as "clarinet". 「ギター」と特定された場合に、表示部14に画面表示される表示形態の一例を示す図である。FIG. 10 is a diagram showing an example of a display form displayed on the display unit 14 when “guitar” is specified. 「バイオリン」と特定された場合に、表示部14に画面表示される表示形態の一例を示す図である。FIG. 6 is a diagram showing an example of a display form displayed on the display unit 14 when it is specified as “violin”. 「ピアノ」と特定された場合に、表示部14に画面表示される表示形態の一例を示す図である。FIG. 10 is a diagram illustrating an example of a display form displayed on the display unit 14 when “piano” is specified. 「クラリネット」と特定された場合に、表示部14に画面表示される表示形態の一例を示す図である。FIG. 11 is a diagram illustrating an example of a display form displayed on the display unit 14 when “Clarinet” is specified.

以下、図面を参照して本発明の実施形態について説明する。
A.外観および発明の概要
図1は、本発明の実施の一形態による楽音発生装置100の外観を示す外観図であり、図1(a)は上面図、同図(b)は側面図、同図(c)は背面図である。図1に図示する楽音発生装置100は、略長方形状の筺体10を有し、その上面側にはカラーLCDパネルから構成される表示部14および当該表示部14の画面と一体形成されるタッチパネル15を備える。筺体10の内部には、3つの姿勢センサ16a〜16cが設けられる。また、筺体10の背面側には、ユーザ操作される各種スイッチ(後述する)を備えるスイッチ部17が配設される。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
A. FIG. 1 is an external view showing an external appearance of a musical sound generating device 100 according to an embodiment of the present invention. FIG. 1 (a) is a top view, FIG. 1 (b) is a side view, and FIG. (C) is a rear view. A musical sound generator 100 shown in FIG. 1 has a substantially rectangular casing 10, and a display unit 14 composed of a color LCD panel on the upper surface side thereof and a touch panel 15 integrally formed with the screen of the display unit 14. Is provided. Three posture sensors 16 a to 16 c are provided inside the housing 10. Further, a switch unit 17 including various switches (described later) operated by the user is disposed on the rear side of the housing 10.

後述するように、本実施形態では、演奏形態に応じた楽器種(楽器の種類)を判別する。ここで言う演奏形態とは、演奏時にユーザが保持する筺体10の姿勢あるいは載置される筺体10の姿勢に相当する。筺体10の姿勢は、内部に配設される3つの姿勢センサ16a〜16cの各出力に基づき取得される。具体的には、筺体10の内部に設けられた3つの姿勢センサ16a〜16cの各出力に基づく筺体10の姿勢が、「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れの演奏形態に合致するのかを判別する。   As will be described later, in this embodiment, the instrument type (musical instrument type) corresponding to the performance mode is determined. The performance form mentioned here corresponds to the attitude of the chassis 10 held by the user during performance or the attitude of the chassis 10 placed. The posture of the housing 10 is acquired based on the outputs of the three posture sensors 16a to 16c disposed inside. Specifically, the posture of the housing 10 based on the outputs of the three posture sensors 16a to 16c provided in the housing 10 is any performance of "guitar", "violin", "piano", and "clarinet". Determine if it matches the form.

表示部14には、判別された演奏形態に合致した楽器種が画像として表示される。具体的には、判別された演奏形態が「ギター」であれば、図15に図示する一例のように、楽器種として仮想的なギターの画像(指板、弦およびフレット)が表示部14に表示される。この場合、表示部14上に設けられるタッチパネル15は、タッチ操作でフレットの押弦(音高指定)を入力し、フリック操作(指先で画面上を素早く払う操作)で弦の發弦を入力する演奏操作子として機能する。   The display unit 14 displays an instrument type that matches the determined performance form as an image. Specifically, if the determined performance form is “guitar”, a virtual guitar image (fingerboard, string and fret) as a musical instrument type is displayed on the display unit 14 as in the example shown in FIG. Is displayed. In this case, the touch panel 15 provided on the display unit 14 inputs a fret string (pitch designation) by a touch operation, and inputs a string chord by a flick operation (an operation to quickly touch the screen with a fingertip). Functions as an operator.

また、判別された演奏形態が「バイオリン」であれば、図16に図示する一例のように、楽器種として仮想的なバイオリンを模した画像(指板、弦およびブリッジ(駒))が表示部14に表示される。この場合、表示部14上に設けられるタッチパネル15は、タッチ操作で押弦(音高指定)を入力し、フリック操作(指先で画面上を素早く払う操作)で弦の擦弦を入力する演奏操作子として機能する。   If the determined performance form is “violin”, an image (fingerboard, string and bridge (piece)) imitating a virtual violin as an instrument type is displayed on the display unit, as in the example shown in FIG. 14 is displayed. In this case, the touch panel 15 provided on the display unit 14 inputs a string (pitch designation) by a touch operation and inputs a string string by a flick operation (an operation for quickly paying the screen with a fingertip). Function as.

さらに、判別された演奏形態が「ピアノ」であれば、図17に図示する一例のように、楽器種として仮想的なピアノを模した鍵盤の画像が表示部14に表示される。この場合、表示部14上に設けられるタッチパネル15は、鍵盤画像中の鍵に対応した位置でのタッチ操作で押鍵(キーオン)を入力し、その押下したタッチ操作を離す操作で離鍵(キーオフ)を入力する演奏操作子として機能する。   Further, if the determined performance form is “piano”, a keyboard image imitating a virtual piano as an instrument type is displayed on the display unit 14 as in the example shown in FIG. In this case, the touch panel 15 provided on the display unit 14 inputs a key press (key-on) by a touch operation at a position corresponding to the key in the keyboard image, and releases the key (key-off) by releasing the pressed touch operation. ) Function as a performance operator.

加えて、判別された演奏形態が「クラリネット」であれば、図18に図示する一例のように、楽器種として仮想的なクラリネットを模した画像(上管・下管の各キー(リングキー)やフィンガープレート)が表示部14に表示される。この場合、表示部14上に設けられるタッチパネル15は、各キーに対応した位置でのタッチ操作で音高指定する演奏操作子として機能する。   In addition, if the discriminated performance form is “Clarinet”, an image simulating a virtual clarinet as a musical instrument type (upper and lower pipe keys (ring keys)) as in the example shown in FIG. Or finger plate) is displayed on the display unit 14. In this case, the touch panel 15 provided on the display unit 14 functions as a performance operator that specifies a pitch by a touch operation at a position corresponding to each key.

B.構成
次に、図2を参照して実施形態の構成について説明する。図2は、楽音発生装置100の構成を示すブロック図である。図2において、CPU11は、スイッチ部17から供給される各種スイッチイベントに基づき装置各部の動作状態を設定する他、上述したように、姿勢センサ16a〜16cの各出力に基づいて演奏形態を判別すると共に、判別した演奏形態に合致する楽器種において演奏操作子として機能するタッチパネル15の出力に基づき音源18に供給するノートオン/ノートオフイベントを発生する。本発明の要旨に係るCPU11の特徴的な処理動作については追って詳述する。
B. Configuration Next, the configuration of the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the musical sound generating device 100. In FIG. 2, the CPU 11 sets the operation state of each part of the apparatus based on various switch events supplied from the switch part 17, and determines the performance form based on each output of the attitude sensors 16 a to 16 c as described above. At the same time, note-on / note-off events to be supplied to the sound source 18 are generated based on the output of the touch panel 15 that functions as a performance operator in the musical instrument type that matches the determined performance form. The characteristic processing operation of the CPU 11 according to the gist of the present invention will be described in detail later.

ROM12は、上記CPU11にロードされる各種プログラムを記憶する。各種プログラムとは、後述するメインルーチン、当該メインルーチンからコールされるスイッチ処理、表示処理および演奏処理を含む。スイッチ処理は、イニシャルスイッチ処理および固定スイッチ処理を含む。RAM13は、CPU11のワークエリアとして用いられ、各種レジスタ・フラグデータを一時記憶する。   The ROM 12 stores various programs loaded on the CPU 11. The various programs include a main routine described later, switch processing called from the main routine, display processing, and performance processing. The switch process includes an initial switch process and a fixed switch process. The RAM 13 is used as a work area for the CPU 11 and temporarily stores various register / flag data.

表示部14は、CPU11から供給される表示制御信号に基づき、演奏形態に合致した楽器種(「ギター」、「バイオリン」、「ピアノ」および「クラリネット」)をそれぞれ模した画像を表示する。タッチパネル15は、表示部14の画面上に設けられ、2次元マトリクス配置された透明電極を用いた静電容量方式のマルチタッチ検出機能を備える。上述したように、タッチパネル15は、表示部14に表示される楽器種(「ギター」、「バイオリン」、「ピアノ」および「クラリネット」)にそれぞれ対応した演奏操作子として機能する。   The display unit 14 displays images simulating instrument types (“guitar”, “violin”, “piano”, and “clarinet”) that match the performance form based on the display control signal supplied from the CPU 11. The touch panel 15 is provided on the screen of the display unit 14 and has a capacitance type multi-touch detection function using transparent electrodes arranged in a two-dimensional matrix. As described above, the touch panel 15 functions as a performance operator corresponding to each instrument type (“guitar”, “violin”, “piano”, and “clarinet”) displayed on the display unit 14.

姿勢検出部16は、筺体10の基端側に並列配置される姿勢センサ16a〜16bと、筺体10の先端側に配置される姿勢センサ16cとから構成される。各姿勢センサ16a〜16cは、それぞれ直交三軸成分の加速度を検出する加速度センサ、直交三軸成分の角速度を検出するジャイロセンサおよび直交三軸成分の地磁気を検出する磁気センサを備える。   The posture detection unit 16 includes posture sensors 16 a to 16 b arranged in parallel on the base end side of the housing 10 and a posture sensor 16 c arranged on the distal end side of the housing 10. Each of the posture sensors 16a to 16c includes an acceleration sensor that detects acceleration of the orthogonal three-axis component, a gyro sensor that detects angular velocity of the orthogonal three-axis component, and a magnetic sensor that detects geomagnetism of the orthogonal three-axis component.

姿勢センサ16a〜16cでは、ジャイロセンサで検出した角速度に基づき三軸成分の姿勢情報を推定し、推定した三軸成分毎の姿勢情報を加速度センサで検出される三軸成分の加速度および地磁気センサで検出される三軸成分の地磁気で補正して出力する。これら姿勢センサ16a〜16cからそれぞれ出力される三軸成分の姿勢情報はCPU11に取り込まれる。CPU11では、姿勢センサ16a〜16cの各出力(補正された三軸成分の姿勢情報)に基づき演奏形態に合致する楽器種を判別する。   In the attitude sensors 16a to 16c, triaxial component attitude information is estimated based on the angular velocity detected by the gyro sensor, and the estimated attitude information for each triaxial component is detected by the acceleration sensor using a triaxial component acceleration and a geomagnetic sensor. The output is corrected by the detected geomagnetic field of the three-axis component. The posture information of the three-axis components output from the posture sensors 16a to 16c is taken into the CPU 11. The CPU 11 discriminates the musical instrument type that matches the performance form based on the outputs of the attitude sensors 16a to 16c (corrected triaxial component attitude information).

スイッチ部17は、図示していないが、電源をパワーオン/パワーオフする電源スイッチの他、姿勢センサ16a〜16bの検出出力を初期化させるイニシャルスイッチや、演奏形態(楽器種)を固定化する固定スイッチなどの各種スイッチを有し、操作されるスイッチ種に対応したスイッチイベントを発生する。このスイッチ部17が発生するスイッチイベントは、CPU11に取り込まれる。   Although not shown, the switch unit 17 fixes an initial switch for initializing detection outputs of the attitude sensors 16a to 16b and a performance form (instrument type) in addition to a power switch for powering on / off the power source. It has various switches such as a fixed switch, and generates a switch event corresponding to the switch type to be operated. The switch event generated by the switch unit 17 is captured by the CPU 11.

音源18は、周知の波形メモリ読み出し方式にて構成される複数の発音チャンネル(MIDIチャンネル)を備え、CPU11から供給されるノートオン/ノートオフイベントに従って楽音波形データWを発生する。サウンドシステム19は、音源18から出力される楽音波形データWをアナログ形式の楽音信号に変換し、当該楽音信号から不要ノイズを除去する等のフィルタリングを施した後、これを増幅してスピーカから放音させる。   The sound source 18 includes a plurality of tone generation channels (MIDI channels) configured by a well-known waveform memory reading method, and generates musical sound waveform data W according to a note-on / note-off event supplied from the CPU 11. The sound system 19 converts the musical sound waveform data W output from the sound source 18 into an analog musical sound signal, performs filtering such as removing unnecessary noise from the musical sound signal, and then amplifies it and releases it from the speaker. Let it sound.

C.動作
次に、図3〜図18を参照して、上記構成による楽音発生装置100のCPU11が実行するメインルーチン、スイッチ処理、表示処理および演奏処理の各動作について説明する。なお、以下に述べる動作の主体は、ことわりが無い限りCPU11である。
C. Operation Next, operations of the main routine, the switch process, the display process, and the performance process executed by the CPU 11 of the musical tone generating apparatus 100 having the above-described configuration will be described with reference to FIGS. The subject of the operation described below is the CPU 11 unless otherwise specified.

(1)メインルーチンの動作
図3は、メインルーチンの動作を示すフローチャートである。装置電源がパワーオンされると、CPU11は本ルーチンを起動し、図3に図示するステップSA1に進み、装置各部を初期化するイニシャライズ処理を実行する。そして、イニシャライズ処理が完了すると、ステップSA2に進み、スイッチ部17でユーザ操作されるスイッチ種に対応したスイッチイベントに基づき、例えばイニシャルスイッチの操作に応じて姿勢センサ16a〜16bの各出力を初期化させたり、固定スイッチの操作に応じて演奏形態(楽器種)の固定化又は解除を指示したりする等のスイッチ処理を実行する。
(1) Operation of Main Routine FIG. 3 is a flowchart showing the operation of the main routine. When the apparatus power supply is powered on, the CPU 11 starts this routine, proceeds to step SA1 shown in FIG. 3, and executes an initialization process for initializing each section of the apparatus. When the initialization process is completed, the process proceeds to step SA2, and based on the switch event corresponding to the switch type operated by the user at the switch unit 17, for example, the outputs of the attitude sensors 16a to 16b are initialized according to the operation of the initial switch. Switch processing is performed, such as instructing to fix or release the performance form (musical instrument type) according to the operation of the fixed switch.

次いで、ステップSA3では、筺体10の内部に設けられた3つの姿勢センサ16a〜16cの各出力に基づいて「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れの演奏形態に合致するのかを判別し、判別された演奏形態に合致した楽器種の画像を表示部14に表示する表示処理を実行する。   Next, in step SA3, the performance conforms to any performance form of “guitar”, “violin”, “piano”, and “clarinet” based on the outputs of the three attitude sensors 16a to 16c provided in the housing 10. And display processing for displaying an image of the instrument type that matches the determined performance form on the display unit 14 is executed.

続いて、ステップSA4に進むと、上記ステップSA3の表示処理で判定された本モード(楽器種)が「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れであるかを判別し、判別された楽器種に対応してタッチパネル15で為される演奏操作に応じて音源18に楽音発生を指示する表示処理を実行する。この後、ステップSA5に進み、例えばユーザ操作により指定された種類のエフェクトを付与する等の、その他の処理を実行して上述のステップSA2に処理を戻す。以後、装置電源がパワーオフされるまで上述したステップSA2〜SA5を繰り返し実行する。   Subsequently, when the process proceeds to step SA4, it is determined whether the mode (instrument type) determined in the display process of step SA3 is “guitar”, “violin”, “piano”, or “clarinet”. In response to the performance operation performed on the touch panel 15 corresponding to the determined instrument type, display processing for instructing the tone generator 18 to generate musical sounds is executed. Thereafter, the process proceeds to step SA5, and other processes such as applying the type of effect designated by the user operation are executed, and the process returns to step SA2. Thereafter, the above-described steps SA2 to SA5 are repeatedly executed until the apparatus power is turned off.

(2)スイッチ処理の動作
次に、図4〜図6を参照してスイッチ処理の動作を説明する。図4はスイッチ処理の動作を示すフローチャート、図5はイニシャルスイッチ処理の動作を示すフローチャート、図6は固定スイッチ処理の動作を示すフローチャートである。
(2) Operation of Switch Process Next, the operation of the switch process will be described with reference to FIGS. 4 is a flowchart showing the operation of the switch process, FIG. 5 is a flowchart showing the operation of the initial switch process, and FIG. 6 is a flowchart showing the operation of the fixed switch process.

上述したメインルーチンのステップSA2(図3参照)を介してスイッチ処理が実行されると、CPU11は図4に図示するステップSB1を介してイニシャルスイッチ処理を実行する。イニシャルスイッチ処理が実行されると、CPU11は図5に図示するステップSC1に処理を進め、イニシャルスイッチがオン操作されたか否かを判断する。イニシャルスイッチがオン操作されていなければ、判断結果は「NO」になり、本処理を終えるが、オン操作されていれば、上記ステップSC1の判断結果が「YES」になり、ステップSC2に進み、筺体10の内部に配設される3つの姿勢センサ16a〜16cの各出力値を初期値にリセットして本処理を終える。   When the switch process is executed via step SA2 (see FIG. 3) of the main routine described above, the CPU 11 executes the initial switch process via step SB1 shown in FIG. When the initial switch process is executed, the CPU 11 advances the process to step SC1 shown in FIG. 5, and determines whether or not the initial switch is turned on. If the initial switch is not turned on, the determination result is “NO”, and this process is completed. If the initial switch is turned on, the determination result of step SC1 is “YES”, and the process proceeds to step SC2. The output values of the three attitude sensors 16a to 16c disposed in the housing 10 are reset to initial values, and this process is finished.

イニシャルスイッチ処理が完了すると、CPU11は図4に図示するステップSB2を介して固定スイッチ処理を実行する。固定スイッチ処理が実行されると、CPU11は図6に図示するステップSD1に進み、判別された演奏形態(楽器種)の固定化又は解除を指示する固定スイッチがオン操作されたか否かを判断する。固定スイッチがオン操作されていなければ、判断結果は「NO」になり、本処理を終える。   When the initial switch process is completed, the CPU 11 executes the fixed switch process via step SB2 shown in FIG. When the fixed switch process is executed, the CPU 11 proceeds to step SD1 shown in FIG. 6 and determines whether or not the fixed switch for instructing the fixation or release of the determined performance form (musical instrument type) has been turned on. . If the fixed switch is not turned on, the determination result is “NO”, and the present process ends.

これに対し、固定スイッチがオン操作されていると、上記ステップSD1の判断結果は「YES」になり、ステップSD2に進み、固定フラグを反転して本処理を終える。すなわち、固定スイッチのオン操作に応じて反転された固定フラグが「0」ならば、判別された演奏形態(楽器種)の解除を指示した状態を表し、一方、反転された固定フラグが「1」であると、判別された演奏形態(楽器種)の固定化を指示した状態を表す。   On the other hand, if the fixed switch is turned on, the determination result in step SD1 is “YES”, the process proceeds to step SD2, the fixed flag is inverted, and the process is terminated. That is, if the fixed flag inverted according to the ON operation of the fixed switch is “0”, it indicates a state in which the discriminated performance form (instrument type) is instructed to be released, while the inverted fixed flag is “1”. ”Represents a state in which fixing of the determined performance form (instrument type) is instructed.

固定スイッチ処理が完了すると、CPU11は図4に図示するステップSB3に進み、例えば楽音に付与するエフェクト種類を選択するエフェクト選択スイッチ処理等、その他のスイッチ処理を実行して本処理を終える。   When the fixed switch process is completed, the CPU 11 proceeds to step SB3 shown in FIG. 4, and executes other switch processes such as an effect selection switch process for selecting the effect type to be applied to the musical tone, and the process is completed.

(3)表示処理の動作
次に、図7〜図8を参照して表示処理の動作について説明する。図7〜図8は、表示処理の動作を示すフローチャートである。前述したメインルーチンのステップSA3(図3参照)を介して本処理が実行されると、CPU11は図7に図示するステップSE1に進み、固定フラグが「1」か否か、すなわち演奏形態(楽器種)を固定化した状態であるかどうかを判断する。ここで、固定フラグが「0」、つまり演奏形態(楽器種)を固定化していない状態ならば、判断結果は「NO」になり、本処理を終える。
(3) Display Processing Operation Next, the display processing operation will be described with reference to FIGS. 7 to 8 are flowcharts showing the operation of the display process. When this processing is executed through step SA3 (see FIG. 3) of the main routine described above, the CPU 11 proceeds to step SE1 shown in FIG. 7, and determines whether the fixed flag is “1”, that is, the performance form (instrument). Judge whether the seeds are fixed. Here, if the fixed flag is “0”, that is, if the performance form (instrument type) is not fixed, the determination result is “NO”, and the present process ends.

これに対し、固定スイッチのオン操作に応じて反転された固定フラグが「1」、すなわち演奏形態(楽器種)の固定化した状態であると、上記ステップSE1の判断結果は「YES」になり、ステップSE2に進む。ステップSE2では、演奏フラグが「0」、すなわち発音期間が完了した消音状態であるか否かを判断する。ここで、演奏フラグが「1」(発音中)であれば、判断結果は「NO」になり、本処理を終えるが、演奏フラグが「0」(消音状態)ならば、判断結果が「YES」となり、ステップSE3に進む。   On the other hand, if the fixed flag inverted according to the ON operation of the fixed switch is “1”, that is, if the performance form (instrument type) is fixed, the determination result in step SE1 is “YES”. The process proceeds to step SE2. In step SE2, it is determined whether or not the performance flag is “0”, that is, whether the sound generation period is complete. Here, if the performance flag is “1” (sounding), the determination result is “NO”, and this processing is terminated. If the performance flag is “0” (silenced state), the determination result is “YES”. And go to step SE3.

ステップSE3では、姿勢センサ16a〜16cの各出力を取得し、続くステップSE4、SE6、SE8、SE10では、取得した姿勢センサ16a〜16cの各出力に基づいて演奏形態に合致する楽器種(「ギター」、「バイオリン」、「ピアノ」および「クラリネット」)を判定する。   In step SE3, the outputs of the posture sensors 16a to 16c are acquired. In subsequent steps SE4, SE6, SE8, and SE10, the instrument type (“guitar”) that matches the performance form based on the acquired outputs of the posture sensors 16a to 16c. ”,“ Violin ”,“ piano ”and“ clarinet ”).

ステップSE4では、条件1をクリアするか否か、つまりギターの演奏形態に相当するか否かを判定する。条件1とは、実際のギターの演奏形態と同じく筺体10をユーザが抱える姿勢であり、具体的には図11に図示する一例のように、姿勢センサ16a〜16cが同一平面上に存在せず、かつY軸上で姿勢センサ16bが姿勢センサ16cよりも上に位置し、しかも姿勢センサ16a、16bが姿勢センサ16cよりも+X軸側に位置する姿勢を指す。   In step SE4, it is determined whether or not the condition 1 is cleared, that is, whether or not it corresponds to the performance form of the guitar. The condition 1 is a posture in which the user holds the casing 10 as in the actual guitar performance form. Specifically, the posture sensors 16a to 16c do not exist on the same plane as in the example illustrated in FIG. The posture sensor 16b is positioned above the posture sensor 16c on the Y axis, and the posture sensors 16a and 16b are positioned on the + X axis side of the posture sensor 16c.

そして、姿勢センサ16a〜16cの各出力が、こうした条件1を満足すると、上記ステップSE4の判断結果は「YES」になり、ステップSE5に進み、楽器種を表す仮モードを「ギター」に設定した後、後述のステップSE12に進む。   When the outputs of the posture sensors 16a to 16c satisfy such a condition 1, the determination result in Step SE4 is “YES”, and the process proceeds to Step SE5, where the provisional mode representing the instrument type is set to “Guitar”. Thereafter, the process proceeds to Step SE12 described later.

一方、姿勢センサ16a〜16cの各出力が条件1を満足しない場合には、上記ステップSE4の判断結果が「NO」になり、ステップSE6に進み、条件2をクリアするか否か、つまりバイオリンの演奏形態に相当するか否かを判定する。条件2とは、実際のバイオリンの演奏形態と同じように、筺体10の基端側をユーザの顎で支持し、先端側をユーザの左手で保持する姿勢を表すものであり、具体的には図12に図示する一例のように、姿勢センサ16a〜16cが同一平面上に存在せず、かつY軸上で姿勢センサ16aが姿勢センサ16bよりも上に位置し、しかも姿勢センサ16cが姿勢センサ16a,16bよりも+X軸側に位置する姿勢を指す。   On the other hand, when the outputs of the posture sensors 16a to 16c do not satisfy the condition 1, the determination result in the step SE4 is “NO”, the process proceeds to the step SE6, and whether or not the condition 2 is cleared, that is, the violin It is determined whether or not it corresponds to a performance form. Condition 2 represents a posture in which the proximal end side of the housing 10 is supported by the user's chin and the distal end side is held by the user's left hand in the same manner as in an actual violin performance. As in the example illustrated in FIG. 12, the posture sensors 16a to 16c do not exist on the same plane, the posture sensor 16a is positioned above the posture sensor 16b on the Y axis, and the posture sensor 16c is the posture sensor. The posture is located on the + X axis side from 16a and 16b.

そして、姿勢センサ16a〜16cの各出力が、こうした条件2を満足すると、上記ステップSE6の判断結果は「YES」になり、ステップSE7に進み、楽器種を表す仮モードを「バイオリン」に設定した後、後述のステップSE12に進む。   When the outputs of the posture sensors 16a to 16c satisfy such a condition 2, the determination result in step SE6 is “YES”, and the process proceeds to step SE7, where the temporary mode representing the instrument type is set to “violin”. Thereafter, the process proceeds to Step SE12 described later.

これに対し、姿勢センサ16a〜16cの各出力が条件2を満足しない場合には、上記ステップSE6の判断結果が「NO」になり、ステップSE8に進み、条件3をクリアするか否か、つまりピアノの演奏形態に相当するか否かを判定する。条件3とは、実際のピアノの演奏形態と同じように、筺体10が平面上に載置される姿勢を表すものであり、具体的には図13に図示する一例のように、姿勢センサ16a〜16cが同一平面上に存在し、かつY軸上で姿勢センサ16aが姿勢センサ16bよりも上に位置し、しかも姿勢センサ16cが姿勢センサ16a,16bよりも+X軸側に位置する姿勢を指す。   On the other hand, when the outputs of the posture sensors 16a to 16c do not satisfy the condition 2, the determination result of the step SE6 is “NO”, and the process proceeds to a step SE8 to determine whether or not the condition 3 is cleared. It is determined whether or not it corresponds to a piano performance form. The condition 3 represents the posture in which the housing 10 is placed on a plane, as in the actual piano performance form. Specifically, as in the example illustrated in FIG. 13, the posture sensor 16a. -16c exist on the same plane, and the posture sensor 16a is located above the posture sensor 16b on the Y axis, and the posture sensor 16c is located on the + X axis side from the posture sensors 16a and 16b. .

そして、姿勢センサ16a〜16cの各出力が、こうした条件3を満足すると、上記ステップSE8の判断結果は「YES」になり、ステップSE9に進み、楽器種を表す仮モードを「ピアノ」に設定した後、後述のステップSE12に進む。   When the outputs of the posture sensors 16a to 16c satisfy such condition 3, the determination result in step SE8 is “YES”, and the process proceeds to step SE9, where the temporary mode representing the instrument type is set to “piano”. Thereafter, the process proceeds to Step SE12 described later.

一方、姿勢センサ16a〜16cの各出力が条件3を満足しない場合には、上記ステップSE8の判断結果が「NO」になり、ステップSE10に進み、条件4をクリアするか否か、つまりクラリネットの演奏形態に相当するか否かを判定する。条件4とは、実際のクラリネットの演奏形態と同じように、筺体10の基端側をユーザの顔に向けて支持し、先端側を下方に向けて保持する姿勢を表すものであり、具体的には図14に図示する一例のように、姿勢センサ16aが姿勢センサ16bよりも+X軸側に位置し、かつ姿勢センサ16a,16bが姿勢センサ16cよりも+Z軸側に位置する姿勢を指す。   On the other hand, if the outputs of the posture sensors 16a to 16c do not satisfy the condition 3, the determination result in the above step SE8 is “NO”, the process proceeds to step SE10, and whether or not the condition 4 is cleared, that is, the clarinet It is determined whether or not it corresponds to a performance form. Condition 4 represents a posture in which the base end side of the housing 10 is supported toward the user's face and the front end side is held downward, as in the actual clarinet performance form. 14, the posture sensor 16a is positioned on the + X axis side with respect to the posture sensor 16b, and the posture sensors 16a and 16b are positioned on the + Z axis side with respect to the posture sensor 16c.

そして、姿勢センサ16a〜16cの各出力が、こうした条件4を満足すると、上記ステップSE10の判断結果は「YES」になり、ステップSE11に進み、楽器種を表す仮モードを「クラリネット」に設定した後、後述のステップSE12に進む。   If the outputs of the posture sensors 16a to 16c satisfy such condition 4, the determination result in step SE10 is “YES”, the process proceeds to step SE11, and the temporary mode indicating the instrument type is set to “clarinet”. Thereafter, the process proceeds to Step SE12 described later.

なお、姿勢センサ16a〜16cの各出力が、上述した条件1〜4の何れも満足しない場合には、上記ステップSE4、SE6、SE8、SE10の各判断結果が「NO」になり、本処理を終える。   When the outputs of the posture sensors 16a to 16c do not satisfy any of the above conditions 1 to 4, the determination results of the above steps SE4, SE6, SE8, and SE10 are “NO”, and this process is performed. Finish.

次に、ステップSE12では、上述のステップSE5、SE7、SE9およびSE11の何れかで判定された仮モード(楽器種)が前回と異なるか否かを判断する。判定された仮モードが前回と異なる楽器種変更の場合には、判断結果が「YES」になり、次のステップSE13に進み、モード変化フラグを「1」にセットした後、続くステップSE14では、タイマ1をクリアして当該タイマ1による計時をスタートさせる楽器種変更状態に設定して本処理を終える。   Next, in step SE12, it is determined whether or not the temporary mode (instrument type) determined in any of the above-described steps SE5, SE7, SE9, and SE11 is different from the previous time. If the determined temporary mode is an instrument type change different from the previous one, the determination result is “YES”, the process proceeds to the next step SE13, and after the mode change flag is set to “1”, in the subsequent step SE14, The timer 1 is cleared and set to the instrument type change state for starting the time measurement by the timer 1, and this processing is finished.

さて、こうして楽器種変更状態を設定した後に再び本処理が実行され、これにより判定された仮モードが前回と同じになったとする。そうすると、上記ステップSE12の判断結果は「NO」になり、図8に図示するステップSE15に進む。そして、ステップSE15〜SE16では、楽器種変更状態(モード変化フラグが「1」にセットされ、かつタイマ1がカウントアップ中)であるか否かを判断する。   Now, it is assumed that after the instrument type change state is set in this way, this processing is executed again, and the provisional mode determined by this processing becomes the same as the previous time. Then, the determination result at step SE12 is “NO”, and the process proceeds to step SE15 shown in FIG. In steps SE15 to SE16, it is determined whether or not the instrument type is changed (the mode change flag is set to “1” and the timer 1 is counting up).

楽器種変更状態(モード変化フラグが「1」にセットされ、かつタイマ1がカウントアップ中)でなければ、上記ステップSE15(あるいはステップSE16)の何れかの判断結果が「NO」になり、本処理を終えるが、楽器種変更状態であると、上記ステップSE15〜SE16の各判断結果が「YES」になり、ステップSE17に進む。   If the instrument type is not changed (the mode change flag is set to “1” and the timer 1 is counting up), the determination result of any of the above step SE15 (or step SE16) is “NO”. When the process is finished, but in the instrument type change state, the determination results in steps SE15 to SE16 are “YES”, and the process proceeds to step SE17.

ステップSE17では、タイマ1のカウントを停止させ、続くステップSE18では、モード変化フラグをゼロリセットして楽器種変更状態を解除する。そして、この後、ステップSE19に進み、仮モードを本モードにして現在の楽器種を決定する。次いで、ステップSE20では、本モードに対応した楽器種の画像を表示部14に表示して本処理を終える。   In step SE17, the count of the timer 1 is stopped, and in step SE18, the mode change flag is reset to zero to cancel the instrument type change state. Thereafter, the process proceeds to step SE19, where the temporary instrument mode is set to the present mode and the current instrument type is determined. Next, in step SE20, an image of the instrument type corresponding to the present mode is displayed on the display unit 14, and the present process ends.

例えば本モード(楽器種)が「ギター」ならば、図15に図示する一例のように、実際のギターを模した指板、弦およびフレットの画像を表示部14に表示する。また、本モードが「バイオリン」ならば、図16に図示する一例のように、実際のバイオリンを模した指板、弦およびブリッジ(駒)の画像を表示部14に表示する。さらに、本モードが「ピアノ」ならば、図17に図示する一例のように、実際のピアノを模した鍵盤の画像を表示部14に表示する。加えて、本モードが「クラリネット」ならば、図18に図示する一例のように、実際のクラリネットを模した上管・下管の各キー(リングキー)やフィンガープレートの画像を表示部14に表示する。   For example, if this mode (instrument type) is “guitar”, an image of a fingerboard, strings and frets simulating an actual guitar is displayed on the display unit 14 as in the example shown in FIG. If this mode is “violin”, an image of a fingerboard, a string, and a bridge (piece) simulating an actual violin is displayed on the display unit 14 as in the example shown in FIG. Further, if this mode is “piano”, an image of a keyboard simulating an actual piano is displayed on the display unit 14 as in the example shown in FIG. In addition, if this mode is “Clarinet”, images of the upper and lower pipe keys (ring keys) and finger plates simulating an actual clarinet are displayed on the display unit 14 as in the example shown in FIG. indicate.

このように、表示処理では、筺体10の内部に設けられた3つの姿勢センサ16a〜16cの各出力に基づいて「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れの演奏形態に合致するのかを判別し、判別された演奏形態に合致した楽器種の画像を表示部14に表示する。   As described above, in the display processing, any performance form of “guitar”, “violin”, “piano”, and “clarinet” is set based on the outputs of the three posture sensors 16a to 16c provided in the housing 10. It is determined whether they match, and an image of the instrument type that matches the determined performance form is displayed on the display unit 14.

なお、上述したように、本実施形態では、判定された仮モードが前回と異なると、楽器種変更状態を一定期間維持し、その後に再び判定された仮モードが前回と同じになれば、楽器種変更状態を解除して仮モードを本モード(現在の楽器種)に決定するので、楽器種変更する際の誤判定を防止することが可能になっている。   As described above, in this embodiment, if the determined temporary mode is different from the previous time, the instrument type change state is maintained for a certain period, and if the determined temporary mode is the same as the previous time, Since the seed change state is canceled and the temporary mode is determined to be the present mode (current instrument type), it is possible to prevent erroneous determination when changing the instrument type.

(4)演奏処理の動作
次に、図9〜図10を参照して演奏処理の動作について説明する。図9〜図10は、演奏処理の動作を示すフローチャートである。前述したメインルーチンのステップSA4(図3参照)を介して本処理が実行されると、CPU11は図9〜図10に図示するステップSF1、SF4、SF7およびSF11において、上述の表示処理で判定された本モードが「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れであるかを判別する。以下、本モードが「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の各場合に分けて説明を進める。
(4) Performance Processing Operation Next, performance processing operation will be described with reference to FIGS. 9 to 10 are flowcharts showing the performance processing operation. When this process is executed through step SA4 (see FIG. 3) of the main routine described above, the CPU 11 determines in the above-described display process in steps SF1, SF4, SF7 and SF11 shown in FIGS. It is determined whether the book mode is “guitar”, “violin”, “piano”, or “clarinet”. In the following, the description will be divided into cases where the mode is “guitar”, “violin”, “piano”, and “clarinet”.

a.「ギター」の場合
本モードが「ギター」であると、ステップSF1の判断結果が「YES」になり、ステップSF2に進み、弾弦に相当する操作の有無、すなわち表示部14上に設けられたタッチパネル15において、ユーザがタッチ操作でフレットの押弦(音高指定)を入力し、フリック操作(指先で画面上を素早く払う操作)で弦の發弦を入力したかどうかを判断する。
a. In the case of “Guitar” If this mode is “Guitar”, the determination result in Step SF1 is “YES”, the process proceeds to Step SF2, and the operation corresponding to the string is performed, that is, provided on the display unit 14. On the touch panel 15, it is determined whether or not the user has input a fret string (pitch designation) by a touch operation, and has input a string chord by a flick operation (an operation for quickly paying the screen with a fingertip).

弾弦に相当する操作(フレットのタッチ操作および弦のフリック操作)が為されると、上記ステップSF2の判断結果は「YES」になり、ステップSF3に進む。ステップSF3では、タッチ操作で指定された音高の楽音を、フリック操作に応じた音量で発音するよう音源18に指示する。これにより、音源18は弾弦に相当する操作に応じたギター音色の楽音を発音する。   When an operation corresponding to a string (fret touch operation and string flick operation) is performed, the determination result in step SF2 is “YES”, and the flow proceeds to step SF3. In step SF3, the sound source 18 is instructed to sound a musical tone having a pitch specified by the touch operation at a volume corresponding to the flick operation. As a result, the sound source 18 generates a musical tone of a guitar tone corresponding to an operation corresponding to a string.

この後、図10に図示するステップSF14に進み、演奏フラグを「1」にセットして発音中を表し、続くステップSF15では、タイマ2をクリアした後、当該タイマ2の計時をスタートさせ、発音期間を計時し始めて本処理を一旦終える。   Thereafter, the process proceeds to step SF14 shown in FIG. 10, and the performance flag is set to “1” to indicate that the sound is being generated. In the subsequent step SF15, after timer 2 is cleared, the timer 2 starts measuring time and generates sound. This process is finished once by starting to measure the period.

そして、再び本処理が実行され、上記ステップSF2の処理に到達した時に、弾弦に相当する操作(フレットのタッチ操作および弦のフリック操作)が為されなければ、当該ステップSF2の判断結果は「NO」になり、図10に図示するステップSF16に進む。ステップSF16では、演奏フラグが「1」、つまり発音中であるか否かを判断する。   Then, when this process is executed again and the process of step SF2 is reached, if the operations corresponding to the string are not performed (fret touch operation and string flick operation), the determination result of step SF2 is “ "NO", the process proceeds to step SF16 shown in FIG. In step SF16, it is determined whether or not the performance flag is "1", that is, whether sounding is in progress.

演奏フラグが「1」(発音中)でなければ、上記ステップSF16の判断結果は「NO」になり、本処理を終えるが、演奏フラグが「1」(発音中)であると、上記ステップSF16の判断結果は「YES」になり、ステップSF17に進む。ステップSF17では、タイマ2がカウントアップしたか否か、すなわち発音期間が完了したかどうかを判断する。発音期間中ならば、判断結果は「NO」になり、本処理を終えるが、タイマ2がカウントアップして発音期間が完了すると、上記ステップSF17の判断結果は「YES」になり、ステップSF18に進み、演奏フラグをゼロリセットして本処理を終える。   If the performance flag is not “1” (sounding), the determination result in step SF16 is “NO”, and the process is terminated. If the performance flag is “1” (sounding), step SF16 is performed. The determination result is “YES”, and the process proceeds to Step SF17. In step SF17, it is determined whether or not the timer 2 has counted up, that is, whether or not the sound generation period has been completed. If it is during the sound generation period, the determination result is “NO”, and this processing is finished. However, when the timer 2 is counted up and the sound generation period is completed, the determination result in step SF17 becomes “YES”, and the process returns to step SF18. Then, the performance flag is reset to zero and the process is terminated.

なお、本実施形態では、実際のギター音が減衰音であることから発音(ノートオン)から所定の発音期間が完了した時点で音源18が発音中の楽音を消音するようにしているが、これに替えて、タイマ2がカウントアップして発音期間が完了して演奏フラグがゼロリセットされた時点でCPU11がノートオフイベントを発生して音源18に供給する態様としても構わない。   In the present embodiment, since the actual guitar sound is a decaying sound, the sound source 18 is muted when the predetermined sound generation period is completed from the sound generation (note-on). Instead, the CPU 11 may generate a note-off event and supply it to the sound source 18 when the timer 2 counts up and the sound generation period is completed and the performance flag is reset to zero.

b.「バイオリン」の場合
本モードが「バイオリン」であると、図9に図示するステップSF4の判断結果が「YES」になり、ステップSF5に進み、擦弦に相当する操作の有無、すなわち表示部14上に設けられるタッチパネル15において、タッチ操作で押弦(音高指定)を入力し、フリック操作(指先で画面上を素早く払う操作)で弦の擦弦を入力したかどうかを判断する。
b. In the case of “violin” When this mode is “violin”, the result of determination in step SF4 shown in FIG. In the touch panel 15 provided on the upper side, it is determined whether or not a string (pitch designation) is input by a touch operation, and a string string is input by a flick operation (an operation for quickly paying the screen with a fingertip).

擦弦に相当する操作(フレットのタッチ操作および弦のフリック操作)が為されると、上記ステップSF5の判断結果は「YES」になり、ステップSF6に進む。ステップSF6では、タッチ操作で指定された音高の楽音を、フリック操作に応じた音量で発音するよう音源18に指示する。これにより、音源18は擦弦に相当する操作に応じたバイオリン音色の楽音を発音する。   When an operation corresponding to a string is performed (fret touch operation and string flick operation), the determination result in step SF5 is “YES”, and the process proceeds to step SF6. In step SF6, the sound source 18 is instructed to sound a musical tone having a pitch specified by the touch operation at a volume corresponding to the flick operation. As a result, the sound source 18 generates a violin tone tone corresponding to the operation corresponding to the string.

この後、図10に図示するステップSF14に進み、演奏フラグを「1」にセットして発音中を表し、続くステップSF15では、タイマ2をクリアした後、当該タイマ2の計時をスタートさせ、発音期間を計時し始めて本処理を一旦終える。   Thereafter, the process proceeds to step SF14 shown in FIG. 10, and the performance flag is set to “1” to indicate that the sound is being generated. In the subsequent step SF15, after timer 2 is cleared, the timer 2 starts measuring time and generates sound. This process is finished once by starting to measure the period.

そして、再び本処理が実行され、上記ステップSF2の処理に到達した時に、擦弦に相当する操作(フレットのタッチ操作および弦のフリック操作)が為されないと、当該ステップSF2の判断結果は「NO」になり、図10に図示するステップSF16に進む。ステップSF16では、演奏フラグが「1」、つまり発音中であるか否かを判断する。   When this process is executed again and the process of step SF2 is reached, if the operation corresponding to the string is not performed (fret touch operation and string flick operation), the determination result of step SF2 is “NO”. The process proceeds to step SF16 shown in FIG. In step SF16, it is determined whether or not the performance flag is "1", that is, whether sounding is in progress.

演奏フラグが「1」(発音中)でなければ、上記ステップSF16の判断結果は「NO」になり、本処理を終えるが、演奏フラグが「1」(発音中)であると、上記ステップSF16の判断結果は「YES」になり、ステップSF17に進む。ステップSF17では、タイマ2がカウントアップしたか否か、すなわち発音期間が完了したかどうかを判断する。発音期間中ならば、判断結果は「NO」になり、本処理を終えるが、タイマ2がカウントアップして発音期間が完了すると、上記ステップSF17の判断結果は「YES」になり、ステップSF18に進み、演奏フラグをゼロリセットして本処理を終える。   If the performance flag is not “1” (sounding), the determination result in step SF16 is “NO”, and the process is terminated. If the performance flag is “1” (sounding), step SF16 is performed. The determination result is “YES”, and the process proceeds to Step SF17. In step SF17, it is determined whether or not the timer 2 has counted up, that is, whether or not the sound generation period has been completed. If it is during the sound generation period, the determination result is “NO”, and this processing is finished. However, when the timer 2 is counted up and the sound generation period is completed, the determination result in step SF17 becomes “YES”, and the process returns to step SF18. Then, the performance flag is reset to zero and the process is terminated.

c.「ピアノ」の場合
本モードが「ピアノ」であると、図9に図示するステップSF7の判断結果が「YES」になり、ステップSF8に進み、鍵操作の有無、すなわち表示部14上に設けられるタッチパネル15において、鍵盤画像中の鍵に対応した位置でのタッチ操作による押鍵、押下したタッチ操作を離す離鍵あるいは鍵操作無し(タッチ操作無し)の何れであるかを判別する。
c. In the case of “Piano” When this mode is “Piano”, the determination result in Step SF7 shown in FIG. 9 is “YES”, and the process proceeds to Step SF8, where there is a key operation, that is, provided on the display unit 14. On the touch panel 15, it is determined whether the key is pressed by a touch operation at a position corresponding to the key in the keyboard image, the key is released to release the pressed touch operation, or there is no key operation (no touch operation).

タッチ操作による押鍵が為されると、ステップSF9に進み、押鍵された鍵に対応する音高の楽音の発音を音源18に指示する。この後、図10に図示するステップSF14に進み、演奏フラグを「1」にセットして発音中を表す。続いて、ステップSF15では、タイマ2をクリアした後、当該タイマ2の計時をスタートさせ、発音期間を計時し始めて本処理を一旦終える。   When the key is pressed by the touch operation, the process proceeds to step SF9, and the sound source 18 is instructed to generate a musical tone having a pitch corresponding to the pressed key. Thereafter, the process proceeds to step SF14 shown in FIG. 10, and the performance flag is set to “1” to indicate that sound is being generated. Subsequently, in step SF15, after the timer 2 is cleared, the timer 2 starts to be timed, the sounding period starts to be counted, and the present process is temporarily ended.

そして、再び本処理が実行され、上記ステップSF8の処理に到達した時に、押下したタッチ操作を離す離鍵が為されると、ステップSF10に進み、離鍵された鍵に対応する音高の楽音の消音を音源18に指示する。この後、図10に図示するステップSF18に進み、演奏フラグをゼロリセットして本処理を終える。   When this process is executed again and the process of step SF8 is reached, if a key release is performed to release the pressed touch operation, the process proceeds to step SF10, and a musical tone having a pitch corresponding to the released key is reached. Is instructed to the sound source 18. Thereafter, the process proceeds to step SF18 shown in FIG. 10, the performance flag is reset to zero, and this process is terminated.

一方、鍵操作無し(タッチ操作無し)の場合には、上記ステップSF8を介して図10に図示するステップSF16に進み、演奏フラグが「1」、つまり発音中であるか否かを判断する。演奏フラグが「1」(発音中)でなければ、上記ステップSF16の判断結果は「NO」になり、本処理を終えるが、演奏フラグが「1」(発音中)であると、上記ステップSF16の判断結果は「YES」になり、ステップSF17に進む。   On the other hand, if there is no key operation (no touch operation), the process proceeds to step SF16 shown in FIG. 10 through step SF8, and it is determined whether or not the performance flag is “1”, that is, whether sounding is in progress. If the performance flag is not “1” (sounding), the determination result in step SF16 is “NO”, and the process is terminated. If the performance flag is “1” (sounding), step SF16 is performed. The determination result is “YES”, and the process proceeds to Step SF17.

ステップSF17では、タイマ2がカウントアップしたか否か、すなわち発音期間が完了したかどうかを判断する。発音期間中ならば、判断結果は「NO」になり、本処理を終えるが、タイマ2がカウントアップして発音期間が完了すると、上記ステップSF17の判断結果は「YES」になり、ステップSF18に進み、演奏フラグをゼロリセットして本処理を終える。   In step SF17, it is determined whether or not the timer 2 has counted up, that is, whether or not the sound generation period has been completed. If it is during the sound generation period, the determination result is “NO”, and this processing is finished. However, when the timer 2 is counted up and the sound generation period is completed, the determination result in step SF17 becomes “YES”, and the process returns to step SF18. Then, the performance flag is reset to zero and the process is terminated.

d.「クラリネット」の場合
本モードが「クラリネット」であると、図10に図示するステップSF11の判断結果が「YES」になり、ステップSF12に進み、音高指定スイッチのオン操作、すなわち表示部14上に設けられるタッチパネル15において、各キーに対応した位置でのタッチ操作の有無を判断する。
d. In the case of “Clarinet” When this mode is “Clarinet”, the determination result in Step SF11 shown in FIG. 10 is “YES”, and the process proceeds to Step SF12 to turn on the pitch designation switch, that is, on the display unit 14 In the touch panel 15 provided on the touch panel 15, whether or not a touch operation is performed at a position corresponding to each key is determined.

キーに対応した位置でのタッチ操作が為されると、上記ステップSF12の判断結果は「YES」になり、ステップSF13に進み、タッチ操作されたキーで指定される音高の楽音の発音を音源18に指示する。なお、実際のクラリネットでは、歌口に吹き込む息圧で音量を制御するが、本実施形態の場合、所定息圧による一定音量で楽音発生するようになっている。   When a touch operation is performed at a position corresponding to the key, the determination result in step SF12 is “YES”, and the process proceeds to step SF13, where the tone of the musical tone having the pitch specified by the touch-operated key is generated. 18 is instructed. Note that in an actual clarinet, the volume is controlled by the breath pressure blown into the singing mouth, but in the case of this embodiment, a musical tone is generated at a constant volume by a predetermined breath pressure.

次いで、ステップSF14では、演奏フラグを「1」にセットして発音中を表す。続いて、ステップSF15では、タイマ2をクリアした後、当該タイマ2の計時をスタートさせ、発音期間を計時し始めて本処理を一旦終える。   Next, in step SF14, the performance flag is set to “1” to indicate that sound is being generated. Subsequently, in step SF15, after the timer 2 is cleared, the timer 2 starts to be timed, the sounding period starts to be counted, and the present process is temporarily ended.

そして、再び本処理が実行され、上記ステップSF11の処理に到達した時に、キーに対応した位置でのタッチ操作が為されないと、当該ステップSF11の判断結果は「NO」になり、ステップSF16に進み、演奏フラグが「1」、つまり発音中であるか否かを判断する。演奏フラグが「1」(発音中)でなければ、上記ステップSF16の判断結果は「NO」になり、本処理を終えるが、演奏フラグが「1」(発音中)であると、上記ステップSF16の判断結果は「YES」になり、ステップSF17に進む。   When this process is executed again and the process of step SF11 is reached, if the touch operation at the position corresponding to the key is not performed, the determination result of step SF11 is “NO”, and the process proceeds to step SF16. Then, it is determined whether or not the performance flag is “1”, that is, the sound is being generated. If the performance flag is not “1” (sounding), the determination result in step SF16 is “NO”, and the process is terminated. If the performance flag is “1” (sounding), step SF16 is performed. The determination result is “YES”, and the process proceeds to Step SF17.

ステップSF17では、タイマ2がカウントアップしたか否か、すなわち発音期間が完了したかどうかを判断する。発音期間中ならば、判断結果は「NO」になり、本処理を終えるが、タイマ2がカウントアップして発音期間が完了すると、上記ステップSF17の判断結果は「YES」になり、ステップSF18に進み、演奏フラグをゼロリセットして本処理を終える。   In step SF17, it is determined whether or not the timer 2 has counted up, that is, whether or not the sound generation period has been completed. If it is during the sound generation period, the determination result is “NO”, and this processing is finished. However, when the timer 2 is counted up and the sound generation period is completed, the determination result in step SF17 becomes “YES”, and the process returns to step SF18. Then, the performance flag is reset to zero and the process is terminated.

このように、演奏処理では、表示処理で判定された本モード(楽器種)が「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れであるかを判別し、判別された楽器種に対応してタッチパネル15で為される演奏操作に応じて音源18に楽音発生を指示する。   In this way, in the performance processing, it is determined whether the mode (instrument type) determined in the display processing is “guitar”, “violin”, “piano”, or “clarinet”, and the determined instrument type In response to this, the sound source 18 is instructed to generate a musical sound in accordance with a performance operation performed on the touch panel 15.

以上説明したように、本実施形態では、筺体10の内部に設けられた3つの姿勢センサ16a〜16cの各出力に基づいて当該筺体10の状態を取得し、取得した状態から筺体10が「ギター」、「バイオリン」、「ピアノ」および「クラリネット」の何れの演奏形態に合致するのかを判別する。そして、判別された演奏形態に合致した楽器種の画像を表示部14に表示すると共に、判別された楽器種に対応してタッチパネル15で為される演奏操作に応じて音源18に楽音発生を指示するので、演奏形態に合致した楽器種の楽音を発生することが可能になる。   As described above, in the present embodiment, the state of the casing 10 is acquired based on the outputs of the three posture sensors 16a to 16c provided inside the casing 10, and the casing 10 is “guitar” from the acquired state. ”,“ Violin ”,“ piano ”, and“ clarinet ”are discriminated to match. Then, an image of the musical instrument type that matches the determined performance type is displayed on the display unit 14 and instructs the sound source 18 to generate a musical tone according to a performance operation performed on the touch panel 15 corresponding to the determined musical instrument type. Therefore, it is possible to generate musical sounds of musical instrument types that match the performance form.

以上、本発明の実施の一形態について説明したが、本発明はそれに限定されるものではなく、本願出願の特許請求の範囲に記載された発明とその均等の範囲に含まれる。   As mentioned above, although one Embodiment of this invention was described, this invention is not limited to it, It is included in the invention described in the claim of this-application, and its equivalent range.

以下では、本願出願当初の特許請求の範囲に記載された各発明について付記する。
(付記)
[請求項1]
筺体の姿勢を表す姿勢情報を取得する取得手段と、
前記取得手段により取得された姿勢情報に基づいた種別の楽器を判別する楽器種別判別手段と、
前記筐体上に設けられ、前記楽器種別判別手段により判別された種別の楽器を示す画像を表示する表示手段と、
前記表示手段により表示されている画像に基づいて定められている演奏操作がなされたか否かを判別する演奏操作判別手段と、
前記演奏操作判別手段により演奏操作がなされたと判別された場合に、前記表示手段により表示されている画像が示す種別の楽器に対応する楽音の発生を、音源に指示する楽音発生指示手段と、
を具備することを特徴とする楽音発生指示装置。
Hereinafter, each invention described in the scope of claims at the beginning of the present application will be additionally described.
(Appendix)
[Claim 1]
Obtaining means for obtaining posture information representing the posture of the housing;
Instrument type discrimination means for discriminating a type of instrument based on the posture information acquired by the acquisition means;
A display unit provided on the housing for displaying an image indicating the type of instrument determined by the instrument type determination unit;
A performance operation determining means for determining whether or not a performance operation defined based on the image displayed by the display means has been performed;
Musical sound generation instruction means for instructing the sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed by the display means when it is determined that the performance operation has been performed by the performance operation determination means;
A musical tone generation instructing device comprising:

[請求項2]
前記取得手段は、
筺体内部にそれぞれ設けられた直交三軸成分の加速度を検出する複数の加速度センサと、
直交三軸成分の角速度を検出する複数のジャイロセンサと、
直交三軸成分の地磁気を検出する地磁気センサとを備え、
前記ジャイロセンサで検出した角速度に基づき三軸成分の姿勢情報を推定し、推定した三軸成分毎の姿勢情報を前記加速度センサで検出される三軸成分の加速度および前記地磁気センサで検出される三軸成分の地磁気で補正して出力する
ことを特徴とする請求項1記載の楽音発生指示装置。
[Claim 2]
The acquisition means includes
A plurality of acceleration sensors for detecting the acceleration of orthogonal three-axis components provided inside the housing;
A plurality of gyro sensors for detecting angular velocities of orthogonal three-axis components;
A geomagnetic sensor that detects the geomagnetism of orthogonal three-axis components,
Based on the angular velocity detected by the gyro sensor, the posture information of the triaxial component is estimated, and the posture information of each estimated triaxial component is detected by the acceleration of the triaxial component detected by the acceleration sensor and the three detected by the geomagnetic sensor. The musical tone generation instruction device according to claim 1, wherein the musical sound generation instruction device is corrected by the geomagnetism of the axial component.

[請求項3]
前記楽器種別判別手段は、予め記憶された各種別の楽器に対応した前記筺体の姿勢を表す姿勢情報から、前記取得手段により取得された姿勢情報と合致する姿勢情報を検索し、当該検索された姿勢情報に対応する種別の楽器を判別することを特徴とする請求項1または2に記載の楽音発生指示装置。
[Claim 3]
The musical instrument type determining means searches for posture information that matches the posture information acquired by the acquiring means from posture information representing postures of the housing corresponding to various different musical instruments stored in advance, and the searched The musical tone generation instruction apparatus according to claim 1 or 2, wherein a musical instrument of a type corresponding to the posture information is discriminated.

[請求項4]
前記楽器種別判別手段は、一定周期毎に対応する種別の楽器を判別し、今回判別された種別の楽器が前回判別された種別の楽器と異なる場合、この今回判別された種別の楽器が、この後予め定められた時間、判別動作を停止してから再び判別された種別の楽器と同じになった場合にのみ、今回の判別された種別の楽器を判別結果とする、ことを特徴とする請求項1乃至3のいずれかに記載の楽音発生指示装置。
[Claim 4]
The instrument type discrimination means discriminates a corresponding type of instrument for each fixed period, and if the currently determined type of instrument is different from the previously determined type of instrument, the currently determined type of instrument is The discriminating result of the current discriminated type is used only when the discriminating operation is the same as the discriminating type of the discriminating instrument after stopping the discriminating operation for a predetermined time. Item 4. The musical tone generation instruction device according to any one of Items 1 to 3.

[請求項5]
前記演奏操作判別手段は、前記表示手段上に設けられたタッチパネルを有し、
前記タッチパネルに対してなされるタッチ操作の形態が、前記表示手段に表示された画像が示す種別の画像毎に予め定められたタッチ操作の形態と合致するか否かを判別する、ことを特徴とする請求項1乃至4のいずれかに記載の楽音発生指示装置。
[Claim 5]
The performance operation determining means has a touch panel provided on the display means,
It is determined whether or not a touch operation mode performed on the touch panel matches a predetermined touch operation mode for each type of image indicated by the image displayed on the display unit. The musical sound generation instruction device according to any one of claims 1 to 4.

[請求項6]
楽音発生装置が、
筺体の姿勢を表す姿勢情報を取得し、
前記取得された姿勢情報に基づいた種別の楽器を判別し、
前記筐体上に設けられた表示手段に、前記判別された種別の楽器を示す画像を表示させ、
前記表示手段に表示させた画像に基づいて定められている演奏操作がなされたか否かを判別し、
前記演奏操作がなされたと判別された場合に、前記表示手段に表示させた画像が示す種別の楽器に対応する楽音の発生を音源に指示する、楽音発生指示方法。
[Claim 6]
The musical sound generator
Obtain posture information that represents the posture of the skeleton,
Determine the type of instrument based on the acquired posture information,
The display means provided on the housing displays an image showing the determined type of musical instrument,
Determining whether a performance operation defined based on the image displayed on the display means has been performed;
A musical sound generation instruction method of instructing a sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed on the display means when it is determined that the performance operation has been performed.

[請求項7]
筐体と、前記筐体上に設けられた表示手段とを有する楽音発生指示装置として用いられるコンピュータに、
前記筺体の姿勢を表す姿勢情報を取得する取得ステップと、
前記取得された姿勢情報に基づいた種別の楽器を判別する楽器種別判別ステップと、
前記判別された種別の楽器を示す画像を前記表示手段に表示させる表示ステップと、
前記表示手段に表示させた画像に基づいて定められている演奏操作がなされたか否かを判別する演奏操作判別ステップと、
前記演奏操作がなされたと判別された場合に、前記表示手段に表示させた画像が示す種別の楽器に対応する楽音の発生を、音源に指示する楽音発生指示ステップと、
を実行させることを特徴とするプログラム。
[Claim 7]
In a computer used as a musical sound generation instruction device having a housing and a display means provided on the housing,
An acquisition step of acquiring posture information representing the posture of the housing;
A musical instrument type determination step of determining a type of musical instrument based on the acquired posture information;
A display step of causing the display means to display an image indicating the determined type of instrument;
A performance operation determining step for determining whether or not a performance operation defined based on the image displayed on the display means has been performed;
A musical sound generation instruction step for instructing the sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed on the display means when it is determined that the performance operation has been performed;
A program characterized by having executed.

[請求項8]
請求項1乃至5の何れかに記載の楽音発生指示装置と、
前記楽音発生指示装置により指示された楽音を発音する音源と、
を具備することを特徴とする電子楽器。
[Claim 8]
A musical sound generation instruction device according to any one of claims 1 to 5,
A sound source that produces a musical sound instructed by the musical sound generation instruction device;
An electronic musical instrument characterized by comprising:

11 CPU
12 ROM
13 RAM
14 表示部
15 タッチパネル
16 姿勢検出部
16a〜16c 姿勢センサ
17 スイッチ部
18 音源
19 サウンドシステム
100 楽音発生装置
11 CPU
12 ROM
13 RAM
DESCRIPTION OF SYMBOLS 14 Display part 15 Touch panel 16 Posture detection part 16a-16c Posture sensor 17 Switch part 18 Sound source 19 Sound system 100 Musical sound generator

Claims (8)

筺体の姿勢を表す姿勢情報を取得する取得手段と、
前記取得手段により取得された姿勢情報に基づいた種別の楽器を判別する楽器種別判別手段と、
前記筐体上に設けられ、前記楽器種別判別手段により判別された種別の楽器を示す画像を表示する表示手段と、
前記表示手段により表示されている画像に基づいて定められている演奏操作がなされたか否かを判別する演奏操作判別手段と、
前記演奏操作判別手段により演奏操作がなされたと判別された場合に、前記表示手段により表示されている画像が示す種別の楽器に対応する楽音の発生を、音源に指示する楽音発生指示手段と、
を具備することを特徴とする楽音発生指示装置。
Obtaining means for obtaining posture information representing the posture of the housing;
Instrument type discrimination means for discriminating a type of instrument based on the posture information acquired by the acquisition means;
A display unit provided on the housing for displaying an image indicating the type of instrument determined by the instrument type determination unit;
A performance operation determining means for determining whether or not a performance operation defined based on the image displayed by the display means has been performed;
Musical sound generation instruction means for instructing the sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed by the display means when it is determined that the performance operation has been performed by the performance operation determination means;
A musical tone generation instructing device comprising:
前記取得手段は、
筺体内部にそれぞれ設けられた直交三軸成分の加速度を検出する複数の加速度センサと、
直交三軸成分の角速度を検出する複数のジャイロセンサと、
直交三軸成分の地磁気を検出する地磁気センサとを備え、
前記ジャイロセンサで検出した角速度に基づき三軸成分の姿勢情報を推定し、推定した三軸成分毎の姿勢情報を前記加速度センサで検出される三軸成分の加速度および前記地磁気センサで検出される三軸成分の地磁気で補正して出力する
ことを特徴とする請求項1記載の楽音発生指示装置。
The acquisition means includes
A plurality of acceleration sensors for detecting the acceleration of orthogonal three-axis components provided inside the housing;
A plurality of gyro sensors for detecting angular velocities of orthogonal three-axis components;
A geomagnetic sensor that detects the geomagnetism of orthogonal three-axis components,
Based on the angular velocity detected by the gyro sensor, the posture information of the triaxial component is estimated, and the posture information of each estimated triaxial component is detected by the acceleration of the triaxial component detected by the acceleration sensor and the three detected by the geomagnetic sensor. The musical tone generation instruction device according to claim 1, wherein the musical sound generation instruction device is corrected by the geomagnetism of the axial component and output.
前記楽器種別判別手段は、予め記憶された各種別の楽器に対応した前記筺体の姿勢を表す姿勢情報から、前記取得手段により取得された姿勢情報と合致する姿勢情報を検索し、当該検索された姿勢情報に対応する種別の楽器を判別することを特徴とする請求項1または2に記載の楽音発生指示装置。   The musical instrument type determining means searches for posture information that matches the posture information acquired by the acquiring means from posture information representing postures of the housing corresponding to various different musical instruments stored in advance, and the searched The musical tone generation instruction apparatus according to claim 1 or 2, wherein a musical instrument of a type corresponding to the posture information is discriminated. 前記楽器種別判別手段は、一定周期毎に対応する種別の楽器を判別し、今回判別された種別の楽器が前回判別された種別の楽器と異なる場合、この今回判別された種別の楽器が、この後予め定められた時間、判別動作を停止してから再び判別された種別の楽器と同じになった場合にのみ、今回の判別された種別の楽器を判別結果とする、ことを特徴とする請求項1乃至3のいずれかに記載の楽音発生指示装置。   The instrument type discrimination means discriminates a corresponding type of instrument for each fixed period, and if the currently determined type of instrument is different from the previously determined type of instrument, the currently determined type of instrument is The discriminating result of the current discriminated type is used only when the discriminating operation is the same as the discriminating type of the discriminating instrument after stopping the discriminating operation for a predetermined time. Item 4. The musical tone generation instruction device according to any one of Items 1 to 3. 前記演奏操作判別手段は、前記表示手段上に設けられたタッチパネルを有し、
前記タッチパネルに対してなされるタッチ操作の形態が、前記表示手段に表示された画像が示す種別の画像毎に予め定められたタッチ操作の形態と合致するか否かを判別する、ことを特徴とする請求項1乃至4のいずれかに記載の楽音発生指示装置。
The performance operation determining means has a touch panel provided on the display means,
It is determined whether or not a touch operation mode performed on the touch panel matches a predetermined touch operation mode for each type of image indicated by the image displayed on the display unit. The musical sound generation instruction device according to any one of claims 1 to 4.
楽音発生装置が、
筺体の姿勢を表す姿勢情報を取得し、
前記取得された姿勢情報に基づいた種別の楽器を判別し、
前記筐体上に設けられた表示手段に、前記判別された種別の楽器を示す画像を表示させ、
前記表示手段に表示させた画像に基づいて定められている演奏操作がなされたか否かを判別し、
前記演奏操作がなされたと判別された場合に、前記表示手段に表示させた画像が示す種別の楽器に対応する楽音の発生を音源に指示する、楽音発生指示方法。
The musical sound generator
Obtain posture information that represents the posture of the skeleton,
Determine the type of instrument based on the acquired posture information,
The display means provided on the housing displays an image showing the determined type of musical instrument,
Determining whether a performance operation defined based on the image displayed on the display means has been performed;
A musical sound generation instruction method of instructing a sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed on the display means when it is determined that the performance operation has been performed.
筐体と、前記筐体上に設けられた表示手段とを有する楽音発生指示装置として用いられるコンピュータに、
前記筺体の姿勢を表す姿勢情報を取得する取得ステップと、
前記取得された姿勢情報に基づいた種別の楽器を判別する楽器種別判別ステップと、
前記判別された種別の楽器を示す画像を前記表示手段に表示させる表示ステップと、
前記表示手段に表示させた画像に基づいて定められている演奏操作がなされたか否かを判別する演奏操作判別ステップと、
前記演奏操作がなされたと判別された場合に、前記表示手段に表示させた画像が示す種別の楽器に対応する楽音の発生を、音源に指示する楽音発生指示ステップと、
を実行させることを特徴とするプログラム。
In a computer used as a musical sound generation instruction device having a housing and a display means provided on the housing,
An acquisition step of acquiring posture information representing the posture of the housing;
A musical instrument type determination step of determining a type of musical instrument based on the acquired posture information;
A display step of causing the display means to display an image indicating the determined type of instrument;
A performance operation determining step for determining whether or not a performance operation defined based on the image displayed on the display means has been performed;
A musical sound generation instruction step for instructing the sound source to generate a musical sound corresponding to the type of musical instrument indicated by the image displayed on the display means when it is determined that the performance operation has been performed;
A program characterized by having executed.
請求項1乃至5の何れかに記載の楽音発生指示装置と、
前記楽音発生指示装置により指示された楽音を発音する音源と、
を具備することを特徴とする電子楽器。
A musical sound generation instruction device according to any one of claims 1 to 5,
A sound source that produces a musical sound instructed by the musical sound generation instruction device;
An electronic musical instrument characterized by comprising:
JP2014141364A 2014-07-09 2014-07-09 Musical sound generation instruction device, musical sound generation instruction method, program, and electronic musical instrument Active JP6451926B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014141364A JP6451926B2 (en) 2014-07-09 2014-07-09 Musical sound generation instruction device, musical sound generation instruction method, program, and electronic musical instrument

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014141364A JP6451926B2 (en) 2014-07-09 2014-07-09 Musical sound generation instruction device, musical sound generation instruction method, program, and electronic musical instrument

Publications (3)

Publication Number Publication Date
JP2016018107A true JP2016018107A (en) 2016-02-01
JP2016018107A5 JP2016018107A5 (en) 2017-08-17
JP6451926B2 JP6451926B2 (en) 2019-01-16

Family

ID=55233361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014141364A Active JP6451926B2 (en) 2014-07-09 2014-07-09 Musical sound generation instruction device, musical sound generation instruction method, program, and electronic musical instrument

Country Status (1)

Country Link
JP (1) JP6451926B2 (en)

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0428697U (en) * 1990-07-03 1992-03-06
JPH04127198A (en) * 1990-09-18 1992-04-28 Casio Comput Co Ltd Musical sound controller
JPH1078778A (en) * 1996-09-05 1998-03-24 Yamaha Corp Stringed instrument type playing device and electronic musical instrument
JP2006174856A (en) * 2004-12-20 2006-07-06 Yamaha Corp Processor with means for switching controller function
JP2006251023A (en) * 2005-03-08 2006-09-21 Nec Tokin Corp Electronic musical instrument using attitude angle detection device, and control method thereof
JP2007264026A (en) * 2006-03-27 2007-10-11 Yamaha Corp Player
JP2007293191A (en) * 2006-04-27 2007-11-08 Nintendo Co Ltd Sound outputting program and sound outputting device
JP2009541801A (en) * 2006-06-29 2009-11-26 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガニゼイション System and method for generating output
US20100287471A1 (en) * 2009-05-11 2010-11-11 Samsung Electronics Co., Ltd. Portable terminal with music performance function and method for playing musical instruments using portable terminal
JP2012210253A (en) * 2011-03-30 2012-11-01 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
US20130174717A1 (en) * 2012-01-10 2013-07-11 Michael V. Butera Ergonomic electronic musical instrument with pseudo-strings

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0428697U (en) * 1990-07-03 1992-03-06
JPH04127198A (en) * 1990-09-18 1992-04-28 Casio Comput Co Ltd Musical sound controller
JPH1078778A (en) * 1996-09-05 1998-03-24 Yamaha Corp Stringed instrument type playing device and electronic musical instrument
JP2006174856A (en) * 2004-12-20 2006-07-06 Yamaha Corp Processor with means for switching controller function
JP2006251023A (en) * 2005-03-08 2006-09-21 Nec Tokin Corp Electronic musical instrument using attitude angle detection device, and control method thereof
JP2007264026A (en) * 2006-03-27 2007-10-11 Yamaha Corp Player
JP2007293191A (en) * 2006-04-27 2007-11-08 Nintendo Co Ltd Sound outputting program and sound outputting device
JP2009541801A (en) * 2006-06-29 2009-11-26 コモンウェルス サイエンティフィック アンド インダストリアル リサーチ オーガニゼイション System and method for generating output
US20100287471A1 (en) * 2009-05-11 2010-11-11 Samsung Electronics Co., Ltd. Portable terminal with music performance function and method for playing musical instruments using portable terminal
JP2012210253A (en) * 2011-03-30 2012-11-01 Konami Digital Entertainment Co Ltd Game device, control method of game device, and program
US20130174717A1 (en) * 2012-01-10 2013-07-11 Michael V. Butera Ergonomic electronic musical instrument with pseudo-strings

Also Published As

Publication number Publication date
JP6451926B2 (en) 2019-01-16

Similar Documents

Publication Publication Date Title
CN102314866B (en) Performance apparatus and electronic musical instrument
JP5712603B2 (en) Performance device and electronic musical instrument
JP6007476B2 (en) Performance device and electronic musical instrument
JP5360510B2 (en) Performance evaluation apparatus and program
JP5099176B2 (en) Performance device and electronic musical instrument
JP5338794B2 (en) Performance device and electronic musical instrument
US9082384B1 (en) Musical instrument with keyboard and strummer
JP5182655B2 (en) Electronic percussion instruments and programs
CN105389013A (en) Gesture-based virtual playing system
JP2006276693A (en) Singing evaluation display apparatus and program
JP5316816B2 (en) Input device and program
US20190385577A1 (en) Minimalist Interval-Based Musical Instrument
JP6451926B2 (en) Musical sound generation instruction device, musical sound generation instruction method, program, and electronic musical instrument
JP2021051106A (en) Electronic wind instrument, control method of electronic wind instrument and program
JP4131279B2 (en) Ensemble parameter display device
WO2023025889A1 (en) Gesture-based audio syntheziser controller
JP5557087B2 (en) Automatic accompaniment apparatus and program
JP5030016B2 (en) Musical sound generator and musical sound generation processing program
JP6402493B2 (en) Electronic musical instrument, pronunciation control method, and program
Lopes et al. Tumaracatu: an ubiquitous digital musical experience of maracatu
Overholt Advancements in violin-related human-computer interaction
JP6358554B2 (en) Musical sound control device, musical sound control method and program
JP6601651B2 (en) Performance guidance device, performance guidance method, program, and electronic musical instrument
JPH1185145A (en) Music forming device
Yoo et al. ZETA violin techniques: Limitations and applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170704

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181127

R150 Certificate of patent or registration of utility model

Ref document number: 6451926

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150