JP6710432B2 - Musical tone control device, electronic musical instrument, musical tone control method and program - Google Patents

Musical tone control device, electronic musical instrument, musical tone control method and program Download PDF

Info

Publication number
JP6710432B2
JP6710432B2 JP2016060475A JP2016060475A JP6710432B2 JP 6710432 B2 JP6710432 B2 JP 6710432B2 JP 2016060475 A JP2016060475 A JP 2016060475A JP 2016060475 A JP2016060475 A JP 2016060475A JP 6710432 B2 JP6710432 B2 JP 6710432B2
Authority
JP
Japan
Prior art keywords
rendition
style
rendition style
detection unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016060475A
Other languages
Japanese (ja)
Other versions
JP2017173610A5 (en
JP2017173610A (en
Inventor
千寿 外山
千寿 外山
一貴 春日
一貴 春日
林 龍太郎
龍太郎 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016060475A priority Critical patent/JP6710432B2/en
Publication of JP2017173610A publication Critical patent/JP2017173610A/en
Publication of JP2017173610A5 publication Critical patent/JP2017173610A5/ja
Application granted granted Critical
Publication of JP6710432B2 publication Critical patent/JP6710432B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏可能な楽音制御装置、電子楽器、楽音制御方法およびプログラムに関する。 The present invention relates to a musical tone control device, an electronic musical instrument, a musical tone control method, and a program that allow even a beginner user to easily play subtones and togging.

一般に電子管楽器では、アコースティック管楽器と同様のキー位置に音高指定用のスイッチ(音高キー)を設けておき、そのスイッチ操作によって楽音の音高を指定すると共に、マウスピース内に吹き込む息の吹圧を検出する圧力センサを設け、この圧力センサにより検出される吹圧に応じて楽音の音量を決定するように構成されている。 Generally, in electronic wind instruments, a pitch-designating switch (pitch key) is provided at a key position similar to that of an acoustic wind instrument, and the pitch of a musical tone is designated by operating the switch and the breath blown into the mouthpiece is blown. A pressure sensor for detecting the pressure is provided, and the volume of the musical sound is determined according to the blowing pressure detected by the pressure sensor.

この種の楽器として、例えば特許文献1には、マウスピースに接触するユーザの上唇および下唇の位置を検出し、検出した上唇位置および下唇位置に応じて生成されるパラメータに従って楽音形成することで例えばユーザの頬や咽の動きに従って発生楽音の音色を制御する技術が開示されている。 As a musical instrument of this type, for example, in Patent Document 1, detecting the positions of the upper lip and the lower lip of a user in contact with a mouthpiece, and forming a musical sound according to a parameter generated according to the detected upper lip position and the lower lip position. For example, a technique for controlling the tone color of a generated musical tone according to the movement of the user's cheeks and throat is disclosed.

特開2000−122641号公報Japanese Patent Laid-Open No. 2000-122641

ところで、上述した特許文献1に開示の技術では、マウスピースに接触するユーザの上唇および下唇の位置を検出して得たパラメータに基づきユーザの頬や咽の動きに応じた音色制御を実現するが、息が漏れるような音を含んだ柔らかなサウンドとして知られるサブトーンや、舌でリードの振動を一瞬止めて音を区切るタンギングをビギナーユーザが簡単に吹奏することが出来ない、という問題がある。 By the way, in the technique disclosed in the above-mentioned Patent Document 1, timbre control according to the movement of the user's cheeks and throat is realized based on the parameters obtained by detecting the positions of the user's upper lip and lower lip that contact the mouthpiece. However, there is a problem that beginner users cannot easily play subtones known as soft sounds including breathtaking sounds and tongues that stop the vibration of the reed with the tongue for a moment to separate the sounds. ..

本発明は、このような事情に鑑みてなされたもので、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る楽音制御装置、電子楽器、楽音制御方法およびプログラムを提供することを目的としている。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a musical tone control device, an electronic musical instrument, a musical tone control method, and a program that allow even a beginner user to easily play a subtone or a toning. ..

本発明の楽音制御装置は、吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、前記検出部から検出される吹奏情報に基づいて、第1の奏法と前記第1の奏法とは異なる第2の奏法とを含む複数の奏法のうちのいずれの奏法が為されたかを判別する奏法判別処理と、前記奏法判別処理により前記第1の奏法が為されたと判されたときに前記検出部で検出されていた前記吹奏情報を比較基準情報として保存部に保存する保存処理と、前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、を実行する処理部を有し、前記奏法判処理は、前記検出部から検出される吹奏情報と、前記保存部に保存されている前記比較基準情報との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別することを特徴とする。 The musical sound control device of the present invention, based on the detection processing for detecting the wind information indicating the state of the wind from the detection unit, and the wind information detected from the detection unit, the first rendition style and the first rendition style. wherein a rendition style determination processing to determine whether any of the performance style is made of a plurality of rendition style, when the first performance style is determine by that made by the rendition style determination processing comprising a different second articulation A saving process of saving the wind information detected by the detecting unit in a saving unit as comparison reference information, and a musical tone instruction process of instructing a sound source to generate a musical tone corresponding to the rendition style determined by the rendition style discrimination processing are executed. includes a processing unit for the style-of-rendition Determination process, a blowing information detected from the detection unit, the difference between the comparison reference information stored in the storage unit, any of the plurality of rendition It is characterized in that it is determined whether or not the rendition method is performed.

本発明の楽音方法は、楽音制御装置が、吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、前記検出部から検出される吹奏情報に基づいて、第1の奏法と前記第1の奏法とは異なる第2の奏法とを含む複数の奏法のうちのいずれの奏法が為されたかを判別する奏法判別処理と、前記奏法判別処理により前記第1の奏法が為されたと判されたときに前記検出部で検出されていた前記吹奏情報を比較基準情報として保存部に保存する保存処理と、前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、を実行し、前記奏法判処理は、前記検出部から検出される吹奏情報と、前記保存部に保存されている前記比較基準情報との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別することを特徴とする。 In the musical tone method of the present invention, the musical tone control device detects the wind information indicating the state of the wind performance from the detection unit, and based on the wind information detected by the detection unit, the first performance method and the first performance method. the performance style is another different and rendition style determination processing any playing of a plurality of rendition style and a second performance style is determined whether made, determine the first performance style has been made by the rendition style determination processing And a musical tone instruction process for instructing the sound source to generate musical tones corresponding to the rendition style determined by the rendition style discrimination processing. If, is executed, and the style-of-rendition Determination process, a blowing information detected from the detection unit, the difference between the comparison reference information stored in the storage unit, any of the plurality of rendition It is characterized by determining whether or not the rendition style is performed.

本発明のプログラムは、コンピュータに、吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、前記検出部から検出される吹奏情報に基づいて、第1の奏法と前記第1の奏法とは異なる第2の奏法とを含む複数の奏法のうちのいずれの奏法が為されたかを判別する奏法判別処理と、前記奏法判別処理により前記第1の奏法が為されたと判されたときに前記検出部で検出されていた前記吹奏情報を比較基準情報として保存部に保存する保存処理と、前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、を実行させ、前記奏法判処理は、前記検出部から検出される吹奏情報と、前記保存部に保存されている前記比較基準情報との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別することを特徴とする。 A program of the present invention causes a computer to perform a first rendition style and a first rendition style based on detection processing for detecting wind information indicating a state of wind from a detection section, and wind information detected from the detection section. when was by different and rendition style determination processing to determine whether any of the performance style is made of a plurality of rendition style and a second performance style, determine the first performance style has been made by the rendition style determination processing A storage process of storing the wind information detected by the detection unit in a storage unit as comparison reference information, and a musical tone instruction process of instructing a sound source to generate a musical tone corresponding to a rendition style determined by the rendition style determination process. is executed, the style-of-rendition Determination process, a blowing information detected from the detection unit, wherein the difference between the comparison reference information stored in the storage unit, any playing of the plurality of rendition style for It is characterized by determining whether or not it has been done.

本発明では、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る。 In the present invention, even a beginner user can easily play subtones and tonguing.

本発明の一実施形態による電子管楽器100の全体構造を示す外観図およびマウスピース6の構造を示す断面図である。1 is an external view showing the overall structure of an electronic wind instrument 100 according to an embodiment of the present invention and a sectional view showing the structure of a mouthpiece 6. FIG. 電子管楽器100の電気的構成を示すブロック図である。3 is a block diagram showing an electrical configuration of the electronic wind instrument 100. FIG. RAM13の構成および奏法判別テーブルPDTの構成を示す図である。It is a figure which shows the structure of RAM13, and the structure of the performance style discrimination table PDT. パッドデータPD1〜PD12の出力分布(ヒストグラム)の一例を示す図である。It is a figure which shows an example of output distribution (histogram) of pad data PD1-PD12. CPU11の動作状態を示す状態遷移図である。It is a state transition diagram showing an operating state of the CPU 11. CPU11が実行するメインルーチンの動作を示すフローチャートである。6 is a flowchart showing an operation of a main routine executed by the CPU 11. CPU11が実行するセンシングパッド処理の動作を示すフローチャートである。6 is a flowchart showing an operation of a sensing pad process executed by CPU 11.

以下、図面を参照して本発明の実施形態について説明する。
A.構造
図1を参照して本発明の一実施形態による電子管楽器100の全体構造について説明する。図1(a)は、アコースティック管楽器の「サックス」形状を模した電子管楽器100の全体構造を示す外観図、図1(b)はマウスピース6の構造を示す断面図である。図1(a)において、サックス形状を為す本体1の正面には、運指操作(音高を指定する演奏操作)される音高キー2が配設される。本体1の開口端3側の内部には、楽音を放音するスピーカ4が設けられる。また、本体1の側面側には、電源をパワーオン・オフする電源スイッチの他、各種操作スイッチを有する操作部5が設けられる。
Embodiments of the present invention will be described below with reference to the drawings.
A. Structure The overall structure of the electronic wind instrument 100 according to the embodiment of the present invention will be described with reference to FIG. FIG. 1A is an external view showing the entire structure of an electronic wind instrument 100 imitating the “saxophone” shape of an acoustic wind instrument, and FIG. 1B is a sectional view showing the structure of a mouthpiece 6. In FIG. 1A, a pitch key 2 for fingering operation (a performance operation for designating a pitch) is arranged on the front surface of a saxophone-shaped main body 1. A speaker 4 for emitting a musical sound is provided inside the opening end 3 side of the main body 1. Further, on the side surface side of the main body 1, an operation section 5 having various operation switches in addition to a power switch for turning on/off the power source is provided.

本体1の基端には、マウスピース6が嵌着されると共に、このマウスピース6を介して吹きこまれるユーザ(吹奏者)の息圧を検出する息圧センサ8が配設される。マウスピース6は、図1(b)に図示する構造、すなわちアコースティック管楽器のリードに相当する箇所にセンシングパッド7(検出部)を備える。 A mouthpiece 6 is fitted to the base end of the main body 1, and a breath pressure sensor 8 for detecting the breath pressure of a user (sounder) blown through the mouthpiece 6 is provided. The mouthpiece 6 is provided with a sensing pad 7 (detection unit) at a structure shown in FIG. 1B, that is, at a position corresponding to a lead of an acoustic wind instrument.

センシングパッド7は、図1(b)に図示するように、静電容量方式により接触検出するパッドPOS1〜POS12から構成される。パッドPOS1〜POS12は、接触検出する領域であり、それぞれマトリクス配置された複数の検出素子から構成される。これらパッドPOS1〜POS12の各検出出力は、後述する入力部9に供給され、パッドデータPD1〜PD12(後述する)に変換される。パッドPOS1がティップ側であり、パッドPOS12がヒール側である。 As shown in FIG. 1B, the sensing pad 7 is composed of pads POS1 to POS12 for detecting contact by a capacitance method. The pads POS1 to POS12 are areas for contact detection, each of which is composed of a plurality of detection elements arranged in a matrix. The respective detection outputs of these pads POS1 to POS12 are supplied to an input unit 9 described later and converted into pad data PD1 to PD12 (described later). The pad POS1 is on the tip side and the pad POS12 is on the heel side.

B.構成
次に、図2を参照して電子管楽器100の電気的構成について説明する。図2は、電子管楽器100の電気的構成を示すブロック図である。図2において、センシングパッド7は、上述したように、それぞれマトリクス配置された複数の検出素子から構成されるパッドPOS1〜POS12を備える。入力部9は、パッドPOS1〜POS12の各検出出力を、接触面積(接触検出した検出素子の数)を表すパッドデータPD1〜PD12に変換する。
B. Configuration Next, the electrical configuration of the electronic wind instrument 100 will be described with reference to FIG. FIG. 2 is a block diagram showing an electrical configuration of the electronic wind instrument 100. In FIG. 2, the sensing pad 7 includes the pads POS1 to POS12 each composed of a plurality of detection elements arranged in a matrix, as described above. The input unit 9 converts each detection output of the pads POS1 to POS12 into pad data PD1 to PD12 representing a contact area (the number of detection elements for which contact is detected).

すなわち、入力部9では、パッドPOS1の検出出力を、マウスピース6を咥えるユーザの舌がリードに接触する状態(接触面積)を表すパッドデータPD1に変換する。また、入力部9では、パッドPOS2〜POS12の各検出出力を、それぞれマウスピース6を咥えるユーザの下唇がリードに接触する状態(接触面積)を表すパッドデータPD2〜PD12に変換する。したがって、マウスピース6を咥えるユーザの舌および下唇がリードに接触する状態(接触面積)を表すデータPD1〜PD12の出力分布(ヒストグラム)は、吹奏の仕方を表現するものと言える。 That is, the input unit 9 converts the detection output of the pad POS1 into pad data PD1 representing a state (contact area) where the tongue of the user holding the mouthpiece 6 contacts the lead. Further, the input unit 9 converts the respective detection outputs of the pads POS2 to POS12 into pad data PD2 to PD12 representing a state (contact area) where the lower lip of the user holding the mouthpiece 6 contacts the lead. Therefore, it can be said that the output distributions (histograms) of the data PD1 to PD12, which represent the state (contact area) where the tongue and lower lip of the user holding the mouthpiece 6 are in contact with the lead, can be said to express the way of playing.

息圧センサ8は、マウスピース6から吹き込まれる息圧を検出して息圧信号を出力する。A/D変換部10は、息圧センサ8から出力される息圧信号をレベル増幅した後、CPU11の制御の下にA/D変換して息圧データDpを発生する。このA/D変換部10が出力する息圧データDpおよび入力部9が発生するパッドデータPD1〜PD12は、CPU11の制御の下に、後述するRAM13のバッファエリアに一時記憶される。 The breath pressure sensor 8 detects the breath pressure blown from the mouthpiece 6 and outputs a breath pressure signal. The A/D converter 10 level-amplifies the breath pressure signal output from the breath pressure sensor 8, and then A/D-converts it under the control of the CPU 11 to generate breath pressure data Dp. The breath pressure data Dp output by the A/D conversion unit 10 and the pad data PD1 to PD12 generated by the input unit 9 are temporarily stored in a buffer area of the RAM 13 described below under the control of the CPU 11.

本体1の正面に配列される音高キー2(図1(a)参照)は、ユーザの運指操作(音高を指定する演奏操作)に応じた音高データPを発生する。発音音高を表す音高データPは、CPU11に取り込まれる。操作部5は、電源をパワーオン・オフする電源スイッチの他、発生楽音の音色を選択する音色選択スイッチ等の各種操作スイッチを有し、操作されるスイッチ種に応じたスイッチイベントを発生する。操作部5が発生するスイッチイベントは、CPU11に取り込まれる。 A pitch key 2 (see FIG. 1A) arranged on the front surface of the main body 1 generates pitch data P according to a fingering operation (a performance operation for designating a pitch) by the user. The pitch data P representing the pitch of the sound being produced is taken into the CPU 11. The operation section 5 has various operation switches such as a tone color selection switch for selecting a tone color of a generated musical tone, in addition to a power switch for powering on/off the power source, and generates a switch event according to the type of switch to be operated. The switch event generated by the operation unit 5 is captured by the CPU 11.

CPU11(処理部)は、操作部5が発生する各種スイッチイベントに基づき楽器各部の動作状態を設定する他、音高キー2の運指操作に応じて発生する音高データPにより指定される音高の楽音を発生するよう音源14に指示する。本発明の要旨に係るCPU11の特徴的な処理動作については追って詳述する。ROM12には、上記CPU11にロードされる各種プログラムデータが記憶される。各種プログラムとは、後述するメインルーチンおよび当該メインルーチンからコールされるセンシングパッド処理を含む。 The CPU 11 (processing unit) sets the operating state of each unit of the musical instrument on the basis of various switch events generated by the operation unit 5, and also the sound designated by the pitch data P generated according to the fingering operation of the pitch key 2. The sound source 14 is instructed to generate a high tone. The characteristic processing operation of the CPU 11 according to the gist of the present invention will be described later in detail. The ROM 12 stores various program data loaded into the CPU 11. The various programs include a main routine described later and a sensing pad process called from the main routine.

RAM13(保存部)は、図3(a)に図示するように、バッファエリアBA、奏法判別テーブルPDTおよびワークエリアWAを備える。RAM13のバッファエリアBAは、CPU11が指示する循環アドレスに従ってリングバッファとして用いられ、上述した入力部9から出力されるパッドデータPD1〜PD12およびA/D変換部10から出力される息圧データDpを時系列順に取り込んで一時記憶する。 The RAM 13 (storage unit) includes a buffer area BA, a rendition style determination table PDT, and a work area WA, as shown in FIG. The buffer area BA of the RAM 13 is used as a ring buffer according to the circular address designated by the CPU 11, and stores the pad data PD1 to PD12 output from the input unit 9 and the breath pressure data Dp output from the A/D conversion unit 10 described above. Capture in temporal order and store temporarily.

RAM13に格納される奏法判別テーブルPDTとは、マウスピース6を咥えるユーザの舌および下唇が、前述したセンシングパッド7のパッドPOS1〜POS12に接触する状態(接触面積)を表すパッドデータPD1〜PD12の出力分布(ヒストグラム)に基づいて奏法を判別するテーブルである。 The rendition style determination table PDT stored in the RAM 13 is pad data PD1 representing a state (contact area) in which the tongue and lower lip of the user holding the mouthpiece 6 contact the pads POS1 to POS12 of the sensing pad 7 described above. It is a table for discriminating the rendition style based on the output distribution (histogram) of the PD 12.

ここで、図3(b)および図4を参照して奏法判別テーブルPDTについて説明する。図4(a)は、ユーザが通常の奏法でマウスピース6を咥えた際に発生するパッドデータPD1〜PD12の出力分布(ヒストグラム)の典型例を示す図である。この例では、パッドデータPD1は「66」、パッドデータPD2は「119」、パッドデータPD3は「169」、パッドデータPD4は「177」、パッドデータPD5は「170」、パッドデータPD6は「146」、パッドデータPD7は「126」、パッドデータPD8は「86」、パッドデータPD8〜PD12はそれぞれ「0」となる。 Here, the rendition style determination table PDT will be described with reference to FIGS. FIG. 4A is a diagram showing a typical example of the output distribution (histogram) of the pad data PD1 to PD12 that is generated when the user holds the mouthpiece 6 with a normal playing style. In this example, the pad data PD1 is "66", the pad data PD2 is "119", the pad data PD3 is "169", the pad data PD4 is "177", the pad data PD5 is "170", and the pad data PD6 is "146". , The pad data PD7 is "126", the pad data PD8 is "86", and the pad data PD8 to PD12 are "0".

つまり、通常の奏法では、パッドデータPD1〜PD4が順次増加して、パッドデータPD4がピーク(山)となった後、パッドデータPD5〜PD8が順次減少する「山型」の出力分布(ヒストグラム)となる。こうした「山型」のパターンが通常の奏法を示す出力分布(ヒストグラム)であり、奏法判別するための比較基準になる。 That is, in a normal rendition style, the pad data PD1 to PD4 sequentially increase, the pad data PD4 reaches a peak (mountain), and then the pad data PD5 to PD8 decrease sequentially. Becomes Such a “mountain type” pattern is an output distribution (histogram) showing a normal rendition style, and serves as a comparison reference for performing rendition style discrimination.

ここでいう極大値とは、出力されたパッドデータPD1〜PD12のうちの最大値のデータ値(最大値)である必要はなく、極大値であれば良い。ここでは、極大値を持つグラフの形を山型と呼ぶ。例えば、図4(a)のようにパッドデータPD4で極大値が得られる形のグラフは、前述のような山型が得られるため、奏法判別するための基準となる「山型」と呼ぶ。 The maximum value here does not have to be the maximum data value (maximum value) of the output pad data PD1 to PD12, and may be any maximum value. Here, the shape of the graph having the maximum value is called a mountain shape. For example, the graph in which the maximum value is obtained with the pad data PD4 as shown in FIG. 4A is referred to as a "mountain type" which is a reference for performing rendition style determination because the above-described mountain type is obtained.

また、後述する「山(極大値)の右側が増加」とは、極大値が得られたパッドよりティップ側に位置するパッドの出力値(パッドデータ)が増加することを示し、山(極大値)の左側が減少」とは、極大値が得られたパッドよりヒール側に位置するのパッドの出力値(パッドデータ)が減少することを示す。 In addition, "the right side of the peak (maximum value) increases" to be described later means that the output value (pad data) of the pad located on the tip side of the pad for which the maximum value is obtained increases. The left side of () decreases” means that the output value (pad data) of the pad located on the heel side of the pad having the maximum value decreases.

図3(b)に図示した一例の奏法判別テーブルPDTでは、通常の奏法を示す「山型」の出力分布(ヒストグラム)に対し、新たに取得した現パッドデータPD1〜PD12の出力分布(ヒストグラム)がどのように相違しているかに応じて奏法を判別する。具体的には、通常の奏法を示す「山型」の出力分布(ヒストグラム)に対し、現パッドデータPD1〜PD12の出力分布(ヒストグラム)について、「山(極大値)の右側が減少」したか否か、「山(極大値)の左側が増加」したか否か、「山(極大値)の数が1つから2つに変化」したか否かを判断し、その判断結果に該当する奏法を判別する。 In the example of the rendition style determination table PDT illustrated in FIG. 3B, the output distribution (histogram) of the newly acquired current pad data PD1 to PD12 is different from the output distribution (histogram) of the “mountain type” that indicates a normal rendition. The rendition style is discriminated according to the difference in the rendition. Specifically, in the output distribution (histogram) of the current pad data PD1 to PD12, is "the right side of the peak (maximum value) decreased" with respect to the "mountain-shaped" output distribution (histogram) that indicates a normal performance style? It is judged whether or not "the left side of the peak (maximum value) has increased" or "the number of peaks (maximum value) has changed from one to two", and corresponds to the judgment result. Determine the playing style.

具体的には、例えば図4(b)に図示する一例のパッドデータPD1〜PD12が新たに取得されたとする。この一例では、パッドデータPD1は「106」、パッドデータPD2は「129」、パッドデータPD3は「169」、パッドデータPD4は「177」、パッドデータPD5は「170」、パッドデータPD6は「146」、パッドデータPD7は「106」、パッドデータPD8は「66」、パッドデータPD8〜PD12はそれぞれ「0」となる。 Specifically, for example, it is assumed that the pad data PD1 to PD12 in the example illustrated in FIG. 4B are newly acquired. In this example, the pad data PD1 is "106", the pad data PD2 is "129", the pad data PD3 is "169", the pad data PD4 is "177", the pad data PD5 is "170", and the pad data PD6 is "146". , The pad data PD7 is "106", the pad data PD8 is "66", and the pad data PD8 to PD12 are "0".

これを比較基準である図4(a)に図示したパッドデータPD1〜PD12の出力分布(ヒストグラム)と比較してみると、「山の右側が減少」(yes)し、「山の左側が増加」(yes)し、「山(極大値)の数が1つから2つに変化」(no)していないので、この判断結果に基づいて図3(b)に図示した奏法判別テーブルPDTから「サブトーン奏法」と判別される。 Comparing this with the output distribution (histogram) of the pad data PD1 to PD12 illustrated in FIG. 4A, which is a comparison reference, “the right side of the mountain decreases” (yes) and “the left side of the mountain increases”. (Yes) and “the number of peaks (maximum values) has not changed from one to two” (no), so based on this determination result, the performance style determination table PDT illustrated in FIG. It is determined to be "subtone playing method".

また、例えば図4(c)に図示する一例のパッドデータPD1〜PD12が新たに取得されたとする。この一例では、パッドデータPD1は「146」、パッドデータPD2は「129」、パッドデータPD3は「169」、パッドデータPD4は「177」、パッドデータPD5は「170」、パッドデータPD6は「146」、パッドデータPD7は「126」、パッドデータPD8は「86」、パッドデータPD8〜PD12はそれぞれ「0」となる。 Further, for example, it is assumed that the pad data PD1 to PD12 in the example illustrated in FIG. 4C are newly acquired. In this example, the pad data PD1 is "146", the pad data PD2 is "129", the pad data PD3 is "169", the pad data PD4 is "177", the pad data PD5 is "170", and the pad data PD6 is "146". , The pad data PD7 is "126", the pad data PD8 is "86", and the pad data PD8 to PD12 are "0".

そして、これを比較基準である図4(a)に図示したパッドデータPD1〜PD12の出力分布(ヒストグラム)と比較すると、「山の右側が減少」(no)していないが、「山の左側が増加」(yes)し、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)したので、この判断結果に基づいて図3(b)に図示した奏法判別テーブルPDTから「タンギング奏法」と判別される。 When this is compared with the output distribution (histogram) of the pad data PD1 to PD12 illustrated in FIG. 4A, which is a comparison reference, the “right side of the mountain decreases” (no), but “the left side of the mountain” Is increased” (yes), the maximum value becomes two, and the “number of peaks (maximum value) changes from one to two” (yes). Based on this determination result, the result shown in FIG. From the rendition style determination table PDT shown in the figure, it is determined as "toning rendition style".

さらに、図4(a)に図示した比較基準の出力分布(ヒストグラム)と、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)との比較により「山の右側が減少」(yes)し、「山の左側が増加」(no)せず、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)した場合や、「山の右側が減少」(yes)し、「山の左側が増加」(yes)し、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)した場合には、図3(b)に図示した奏法判別テーブルPDTから「タンギング&サブトーン奏法」と判別される。 Furthermore, by comparing the output distribution (histogram) of the comparison reference illustrated in FIG. 4A with the output distribution (histogram) of the newly acquired pad data PD1 to PD12, “the right side of the mountain decreases” (yes). , “The left side of the mountain does not increase” (no), the maximum value becomes 2 and “the number of mountains (maximum value) changes from 1 to 2” (yes), or “the right side of the mountain becomes If "decrease" (yes), "the left side of the mountain increases" (yes), the maximum value becomes two, and "the number of peaks (maximum value) changes from one to two" (yes) From the rendition style discrimination table PDT shown in FIG. 3B, it is discriminated as “toning & subtone rendition style”.

なお、図4(a)に図示した比較基準の出力分布(ヒストグラム)と、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)との比較により「山の右側が減少」(no)せず、「山の左側が増加」(no)せず、「山(極大値)の数が1つから2つに変化」(no)していない場合や、「山の右側が減少」(no)せず、「山の左側が増加」(no)せず、極大値が2つになり「山(極大値)の数が1つから2つに変化」(yes)した場合、あるいは「山の右側が減少」(no)せず、「山の左側が増加」(yes)し、「山(極大値)の数が1つから2つに変化」(no)した場合には、図3(b)に図示した奏法判別テーブルPDTから「通常奏法」と判別される。 In addition, by comparing the output distribution (histogram) of the comparison reference illustrated in FIG. 4A and the output distribution (histogram) of the newly acquired pad data PD1 to PD12, “the right side of the mountain decreases” (no). No increase in the left side of the mountain (no) and no change in the number of peaks (maximum values) from one to two (no), or a decrease in the right side of the mountain (no) )), “the left side of the mountain does not increase” (no), the maximum value becomes 2 and the “number of peaks (maximum value) changes from 1 to 2” (yes), or If the number of peaks (maximum value) changes from one to two (no), the right side of the peak does not decrease” (no) but the left side of the mountain increases (yes). From the rendition style determination table PDT illustrated in (b), it is determined as "normal rendition style".

再び図3を参照して実施形態の構成について説明を進める。図3(a)において、RAM13のワークエリアWAは、CPU11の作業領域として用いられ、各種レジスタ・フラグが一時記憶される。各種レジスタの内には、上述した奏法判別テーブルPDTで判別された奏法を表す状態変数stateを保持するレジスタが含まれる。 The configuration of the embodiment will be described again with reference to FIG. In FIG. 3A, the work area WA of the RAM 13 is used as a work area of the CPU 11 and temporarily stores various register flags. The various registers include a register that holds a state variable state indicating the rendition style determined by the rendition style determination table PDT described above.

状態変数stateは、ユーザがマウスピース6を咥えておらず、パッドデータPD1〜PD12が全て「0」に相当する状態Not_set、通常の奏法でマウスピース6を咥えている状態Normal、サブトーン奏法でマウスピース6を咥えている状態Subtone、タンギング奏法でマウスピース6を咥えている状態Tonguingおよびタンギング奏法&サブトーン奏法でマウスピース6を咥えている状態Tonguing&Subtoneから構成される。 The state variable state is a state Not_set in which the user does not hold the mouthpiece 6 and the pad data PD1 to PD12 all correspond to “0”, a state Normal in which the mouthpiece 6 is held in a normal rendition style, and a mouse in the subtone playing style. It is composed of a state Subtone in which the piece 6 is held, a state Tonguing in which the mouthpiece 6 is held by a tongue rendition and a state Tonguing & Subtone in which the mouthpiece 6 is held in a tongue rendition & subtone rendition.

こうした状態変数stateは、CPU11の制御の下に状態遷移する。具体的には、図5に図示する状態遷移図に示す通り、マウスピース6を咥えていない状態Not_setを起点に通常の状態Normalへ遷移する。通常の状態Normalでは、状態Not_setに戻る他、状態Subtone、状態Tonguingおよび状態Tonguing&Subtoneの何れかに遷移可能になる。状態Subtone、状態Tonguingおよび状態Tonguing&Subtoneは、それぞれ状態Not_setや状態Normalに復帰可能であって、かつ相互に遷移可能になっている。 The state variable state changes under the control of the CPU 11. Specifically, as shown in the state transition diagram shown in FIG. 5, the state Not_set in which the mouthpiece 6 is not held is used as a starting point to transition to the normal state Normal. In the normal state Normal, in addition to returning to the state Not_set, it becomes possible to make a transition to any of the state Subtone, state Tonguing, and state Tonguing & Subtone. The state Subtone, the state Tonguing, and the state Tonguing & Subtone can be returned to the state Not_set and the state Normal, respectively, and can transit to each other.

次に、再び図2を参照して実施形態の構成について説明を進める。図2において、音源14は、周知の波形メモリ読み出し方式にて構成される複数の発音チャンネル(MIDIチャンネル)を備え、CPU11から供給されるMIDIイベントに従って楽音波形データを発生する。 Next, the configuration of the embodiment will be described again with reference to FIG. In FIG. 2, the sound source 14 has a plurality of tone generation channels (MIDI channels) configured by a well-known waveform memory reading method, and generates musical tone waveform data in accordance with a MIDI event supplied from the CPU 11.

具体的には、通常の状態Normalの場合、音源14ではユーザ選択された音色(管楽器音)の波形データを、音高データPに応じた読み出し速度で再生し、再生した波形データを息圧データDpに応じて音量制御した楽音波形データを発生する。状態Subtoneに遷移した場合には、パッドデータPD1〜PD12の出力分布(ヒストグラム)から算出する重心位置を下唇位置とし、この下唇位置に対応付けられたサブトーン波形データを再生し、これを発生中の楽音波形データに加算合成してサブトーンを含む楽音波形データを形成する。状態Tonguingに遷移した場合には、例えばパッドデータPD1が所定の閾値を超えたタイミングで発生中の楽音波形データを短時間内にノートオフ・ノートオンさせて発音中の楽音を一瞬止めるタンギング効果を付加する。 Specifically, in the normal state Normal, the sound source 14 reproduces the waveform data of the tone color (wind instrument sound) selected by the user at the reading speed according to the pitch data P, and reproduces the waveform data. Musical tone waveform data whose volume is controlled according to Dp is generated. When transitioning to the state Subtone, the barycenter position calculated from the output distribution (histogram) of the pad data PD1 to PD12 is set as the lower lip position, the subtone waveform data associated with this lower lip position is reproduced, and this is generated. The tone waveform data is added and synthesized to form tone waveform data including subtones. When transitioning to the state Tonguing, for example, there is a tonguing effect in which the musical tone waveform data being generated at the timing when the pad data PD1 exceeds a predetermined threshold is note-off/note-on within a short time to stop the musical tone being sounded for a moment. Add.

サウンドシステム15は、音源14から出力される楽音波形データをアナログ形式の楽音信号に変換し、当該楽音信号から不要ノイズを除去する等のフィルタリングを施した後、これを増幅してスピーカ4から放音させる。 The sound system 15 converts the musical tone waveform data output from the sound source 14 into an analog musical tone signal, performs filtering such as removal of unnecessary noise from the musical tone signal, amplifies the noise, and then emits it from the speaker 4. Sound.

C.動作
次に、図6〜図7を参照して上記構成による電子管楽器100のCPU11が実行するメインルーチンおよびセンシングパッド処理の各動作について説明する。なお、以下の動作説明では、ことわりが無い限り動作の主体はCPU11である。
C. Operation Next, each operation of the main routine and the sensing pad processing executed by the CPU 11 of the electronic wind instrument 100 having the above-described configuration will be described with reference to FIGS. 6 to 7. In the following description of the operation, the main body of the operation is the CPU 11 unless otherwise noted.

(1)メインルーチンの動作
図6は、CPU11が実行するメインルーチンの動作を示すフローチャートである。電源スイッチ操作により電子管楽器100がパワーオンすると、CPU11は図6に図示するステップSA1に処理を進め、電子管楽器100の各部を初期化するイニシャライズを行う。イニシャライズが完了すると、ステップSA2に進み、センシングパッド処理を実行する。
(1) Operation of Main Routine FIG. 6 is a flowchart showing the operation of the main routine executed by the CPU 11. When the electronic wind instrument 100 is powered on by the operation of the power switch, the CPU 11 advances the processing to step SA1 shown in FIG. 6, and initializes each part of the electronic wind instrument 100. When the initialization is completed, the process proceeds to step SA2 and the sensing pad process is executed.

センシングパッド処理では、後述するように、ユーザ(吹奏者)が通常の奏法でマウスピース6を咥えた際のパッドデータPD1〜PD12の出力分布(ヒストグラム)を比較基準とし、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)がこの比較基準に対してどのように変化したか、すなわち「山の右側が減少」したか否か、「山の左側が増加」したか否か、「山(極大値)の数が1つから2つに変化」したか否かを判断した結果に応じて、奏法判別テーブルPDTから該当する奏法を判別し、判別した奏法へ状態遷移する。 In the sensing pad process, as will be described later, the output distribution (histogram) of the pad data PD1 to PD12 when the user (blower) holds the mouthpiece 6 with a normal performance is used as a comparison reference, and the newly acquired pad data is used. How the output distributions (histograms) of PD1 to PD12 changed with respect to this comparison standard, that is, whether "the right side of the mountain has decreased", "the left side of the mountain has increased", "mountain" According to the result of determining whether or not the number of (maximum value) has changed from one to two, the corresponding performance style is determined from the performance style determination table PDT, and the state transitions to the determined performance style.

次に、ステップSA3では、マウスピース6を介して吹きこまれるユーザ(吹奏者)の息圧を息圧センサ8により検出し、当該息圧センサ8の検出出力をA/D変換して取得した息圧データDpをRAM13のバッファエリアBAに一時記憶する息圧検出処理を実行する。続いて、ステップSA4では、音高キー2の運指操作(音高を指定する演奏操作)に応じた音高データPを発生する音高キースイッチ処理を実行する。 Next, in step SA3, the breath pressure of the user (blister) blown through the mouthpiece 6 is detected by the breath pressure sensor 8, and the detection output of the breath pressure sensor 8 is obtained by A/D conversion. The breath pressure detection process of temporarily storing the breath pressure data Dp in the buffer area BA of the RAM 13 is executed. Subsequently, in step SA4, a pitch key switch process for generating pitch data P corresponding to the fingering operation of the pitch key 2 (a performance operation for designating a pitch) is executed.

そして、ステップSA5では、上記ステップSA2のセンシングパッド処理にて判別された奏法に応じた楽音を発音する発音処理を実行する。すなわち、通常の奏法が為される状態Normalならば、ユーザ選択された音色(管楽器音)の波形データを、音高データPに応じた読み出し速度で再生し、再生した波形データを息圧データDpに応じて音量制御した楽音波形データを発生する。 Then, in step SA5, a tone generation process for generating a musical tone according to the rendition style determined in the sensing pad process in step SA2 is executed. That is, in the normal state where a normal playing style is performed, the waveform data of the tone color (wind instrument sound) selected by the user is reproduced at the reading speed according to the pitch data P, and the reproduced waveform data is taken as the breath pressure data Dp. To generate musical tone waveform data whose volume is controlled according to.

通常の奏法が為される状態Normalからサブトーン奏法が為される状態Subtoneに遷移すると、パッドデータPD1〜PD12の出力分布(ヒストグラム)から算出する重心位置を下唇位置とし、この下唇位置に対応付けられたサブトーン波形データを再生し、これを発生中の楽音波形データに加算合成してサブトーンを含む楽音波形データを形成する。さらに、状態Tonguingに遷移した場合には、例えばパッドデータPD1が所定の閾値を超えたタイミングで発生中の楽音波形データを短時間内にノートオフ・ノートオンさせて発音中の楽音を一瞬止めるタンギング効果を付加する。 When a transition is made from the state Normal in which a normal rendition style is performed to the state Subtone in which a subtone rendition style is performed, the position of the center of gravity calculated from the output distribution (histogram) of the pad data PD1 to PD12 is set as the lower lip position, and the position corresponds to this lower lip position. The attached subtone waveform data is reproduced, and this is added and synthesized with the musical tone waveform data being generated to form musical tone waveform data including the subtone. Further, when the state transitions to the state Tonguing, for example, the tone waveform data being generated at the timing when the pad data PD1 exceeds a predetermined threshold is note-off/note-on within a short period of time to stop the musical tone being sounded for a moment. Add effects.

続いて、ステップSA6では、例えば操作部5の音色選択スイッチ操作に応じて発生する楽音の音色を選択する等の、その他の処理を実行する。そして、以後は電源スイッチ操作で電源がパワーオフされるまで上述のステップSA2〜SA6を繰り返し実行する。 Subsequently, in step SA6, other processing such as selecting a tone color of a musical tone generated in response to the operation of the tone color selection switch of the operation unit 5 is executed. Then, thereafter, the above steps SA2 to SA6 are repeatedly executed until the power is turned off by operating the power switch.

(2)センシングパッド処理の動作
図7は、CPU11が実行するセンシングパッド処理の動作を示すフローチャートである。前述したメインルーチンのステップSA2(図6参照)を介して本処理が実行されると、CPU11は図7に図示するステップSB1に処理を進め、入力部9が発生するパッドデータPD1〜PD12を取得してRAM13のバッファエリアBAに一時記憶する。
(2) Operation of Sensing Pad Process FIG. 7 is a flowchart showing the operation of the sensing pad process executed by the CPU 11. When this processing is executed through step SA2 (see FIG. 6) of the main routine described above, the CPU 11 advances the processing to step SB1 shown in FIG. 7, and acquires the pad data PD1 to PD12 generated by the input unit 9. Then, it is temporarily stored in the buffer area BA of the RAM 13.

次に、ステップSB2では、上記ステップSB1で取得したパッドデータPD1〜PD12に基づいてユーザ(吹奏者)がマウスピース6を咥えている状態であるかどうかを判断する。具体的には、パッドデータPD1〜PD12の各出力の総和が所定値を超えた場合に「咥えられた状態」と判断したり、パッドデータPD1〜PD12の各出力の内、所定の閾値を超えるパッドデータPDが存在する場合に「咥えられた状態」と判断したりする。 Next, in step SB2, it is determined whether or not the user (winder) is holding the mouthpiece 6 based on the pad data PD1 to PD12 acquired in step SB1. Specifically, when the total sum of the outputs of the pad data PD1 to PD12 exceeds a predetermined value, it is determined as a "held state", or a predetermined threshold value of the outputs of the pad data PD1 to PD12 is set. If there is pad data PD that exceeds the threshold, it is determined that the pad data PD is "held."

そして、上記ステップSB2において、マウスピース6が「咥えられていない状態」と判断された場合には、判断結果が「NO」になり、ステップSB3に進む。ステップSB3では、状態変数stateを状態Not_setに遷移して一旦本処理を終える。 When it is determined in step SB2 that the mouthpiece 6 is in the "non-held state", the determination result is "NO", and the process proceeds to step SB3. In step SB3, the state variable state is transited to the state Not_set, and the present processing is terminated.

これに対し、ユーザ(吹奏者)がマウスピース6を咥えている状態であると、上記ステップSB2の判断結果は「YES」になり、ステップSB4に進む。ステップSB4では、1つ前の状態変数stateが状態Not_setであるか否かを判断する。 On the other hand, if the user (swinger) is holding the mouthpiece 6, the result of the determination in step SB2 is "YES", and the process proceeds to step SB4. In step SB4, it is determined whether or not the immediately preceding state variable state is the state Not_set.

なお、後述するステップSB5やステップSB12では、状態遷移に応じて状態変数stateを更新するようになっており、1つ前の状態変数stateとは更新する前の状態変数stateを指し、一方、更新した後の状態変数stateが現在の状態変数stateとなる。したがって、上記ステップSB4では、状態遷移に応じて更新する前の状態変数stateが、マウスピース6を咥えていない状態Not_setであるかどうかを判断する。 In addition, in step SB5 and step SB12 described later, the state variable state is updated according to the state transition, and the immediately previous state variable state indicates the state variable state before the update, while the update is performed. After that, the state variable state becomes the current state variable state. Therefore, in step SB4, it is determined whether or not the state variable state before updating according to the state transition is the state Not_set in which the mouthpiece 6 is not held.

そして、1つ前の状態変数state、すなわち状態遷移に応じて更新する前の状態変数stateが状態Not_setであると、上記ステップSB4の判断結果は「YES」になり、ステップSB5に進み、マウスピース6を咥えていない状態から咥えた状態に遷移したのに応じて、現在の状態変数stateを通常の状態Normalに更新する。 When the previous state variable state, that is, the state variable state before updating according to the state transition is the state Not_set, the determination result of the above step SB4 is “YES”, and the process proceeds to step SB5, and the mouthpiece In response to the transition from the state in which 6 is not held to the state in which 6 is held, the current state variable state is updated to the normal state Normal.

次いで、ステップSB6では、上記ステップSB1で取得したパッドデータPD1〜PD12を比較基準としてRAM13のワークエリアWAに保存して一旦処理を終える。なお、保存する比較基準は、パッドデータPD1〜PD12の他、当該パッドデータPD1〜PD12の出力分布(ヒストグラム)における山(極大値)の左側の各出力および山(極大値)の右側の各出力を含む。 Next, in step SB6, the pad data PD1 to PD12 obtained in step SB1 are stored in the work area WA of the RAM 13 as a comparison reference, and the process is temporarily terminated. In addition to the pad data PD1 to PD12, the comparison reference to be saved is each output on the left side of the peak (maximum value) and each output on the right side of the peak (maximum value) in the output distribution (histogram) of the pad data PD1 to PD12. including.

一方、1つ前の状態変数stateが状態Not_setでない場合、つまりマウスピース6が咥えられている通常の状態Normalならば、上記ステップSB4の判断結果は「NO」になり、ステップSB7に進む。ステップSB7では、上記ステップSB1で取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)から山(極大値)の数を検出する。 On the other hand, if the immediately preceding state variable state is not State Not_set, that is, if the mouthpiece 6 is in the normal state Normal, the result of the determination in step SB4 is "NO", and the process proceeds to step SB7. In step SB7, the number of peaks (maximum value) is detected from the output distribution (histogram) of the pad data PD1 to PD12 acquired in step SB1.

次に、ステップSB8では、上記ステップSB6で保存した山(極大値)の左側の各出力と、上記ステップSB1で取得したパッドデータPD1〜PD12の内、当該山(極大値)の左側の各出力と同じ番号のパッドデータの各出力とを比較して山(極大値)の左側の増加の有無を確認する。 Next, in step SB8, each output on the left side of the peak (maximum value) stored in step SB6 and each output on the left side of the peak (maximum value) of the pad data PD1 to PD12 acquired in step SB1. Check whether there is an increase on the left side of the peak (maximum value) by comparing each output of the pad data of the same number with.

続いて、ステップSB9では、上記ステップSB6で保存した山(極大値)の右側の各出力と、上記ステップSB1で取得したパッドデータPD1〜PD12の内、当該山(極大値)の右側の各出力と同じ番号のパッドデータの各出力とを比較して山(極大値)の右側の増加の有無を確認する。 Then, in step SB9, each output on the right side of the mountain (maximum value) stored in step SB6 and each output on the right side of the mountain (maximum value) of the pad data PD1 to PD12 acquired in step SB1. Check whether there is an increase on the right side of the peak (maximum value) by comparing each output of the pad data with the same number as.

そして、ステップSB10では、上記ステップSB7〜SB9の結果に基づいて上記ステップSB1で取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)が、上記ステップSB6で保存した比較基準の出力分布(ヒストグラム)から変化したか否、すなわち「山(極大値)の数の増加」、「山(極大値)の左側の増加」および「山(極大値)の右側の増加」の何れかが発生したかどうかを判断し、前述した奏法判別テーブルPDT(図3(b)参照)を参照して現在の奏法がどの奏法にあたるかを判別する。 Then, in step SB10, the output distribution (histogram) of the pad data PD1 to PD12 acquired in step SB1 based on the results of steps SB7 to SB9 is calculated from the comparison reference output distribution (histogram) stored in step SB6. Whether or not it has changed, that is, whether "an increase in the number of peaks (maximum value)", "increase on the left side of the peak (maximum value)" or "increase on the right side of the peak (maximum value)" has occurred Then, the performance style discrimination table PDT (see FIG. 3B) described above is referenced to determine which performance style the current performance style is.

具体的には、例えば比較基準となるパッドデータPD1〜PD12の出力分布(ヒストグラム)が図4(a)である場合に、新たに取得した現パッドデータPD1〜PD12が図4(b)に図示する出力分布(ヒストグラム)であるとする。そうすると、この場合、「山の右側が減少」(yes)し、「山の左側が増加」(yes)し、「山(極大値)の数が1つから2つに変化」(no)ではないので、図3(b)に図示した奏法判別テーブルPDTから「サブトーン奏法」と判別される。 Specifically, for example, when the output distribution (histogram) of the pad data PD1 to PD12 serving as a comparison reference is as shown in FIG. 4A, the newly acquired current pad data PD1 to PD12 is shown in FIG. 4B. Output distribution (histogram). Then, in this case, “the right side of the mountain decreases” (yes), “the left side of the mountain increases” (yes), and “the number of mountains (maximum value) changes from one to two” (no) Since it does not exist, it is discriminated as "subtone rendition" from the rendition style discrimination table PDT shown in FIG.

また、例えば比較基準となるパッドデータPD1〜PD12の出力分布(ヒストグラム)が図4(a)である場合に、新たに取得した現パッドデータPD1〜PD12が図4(c)に図示する出力分布(ヒストグラム)になったとする。そうすると、この場合、「山の右側が減少」(no)していないが、「山の左側が増加」(yes)し、極大値が2つになり、「山(極大値)の数が1つから2つに変化」(yes)なので、図3(b)に図示した奏法判別テーブルPDTから「タンギング奏法」と判別される。 Further, for example, when the output distribution (histogram) of the pad data PD1 to PD12 serving as the comparison reference is as shown in FIG. 4A, the newly acquired current pad data PD1 to PD12 is the output distribution shown in FIG. 4C. (Histogram). Then, in this case, "the right side of the mountain does not decrease" (no), but "the left side of the mountain increases" (yes), the maximum value becomes 2, and the number of "mountain (maximum value) is 1". Since it changes from two to two” (yes), it is determined to be “toning rendition” from the rendition style determination table PDT illustrated in FIG.

続いて、ステップSB11では、上記ステップSB10で判断された奏法が、前回のSB10の判断タイミングで判断された奏法と同じであるか否かを判断する。つまり、今回の判断タイミング(第1のタイミング)で判断された奏法と、前記今回より前のタイミングである、前回の判断タイミング(第2のタイミング)で判断された奏法とを比較して、奏法が変化しているかを判断する。 Subsequently, in step SB11, it is determined whether or not the rendition style determined in step SB10 is the same as the rendition style determined in the determination timing of the previous SB10. That is, the rendition style judged at the current judgment timing (first timing) is compared with the rendition style judged at the previous judgment timing (second timing), which is the timing earlier than this time, and the rendition style is compared. To determine if is changing.

例えば、前回の判断タイミング(第2のタイミング)で通常奏法と判断され、今回の判断タイミング(第1のタイミング)でタンギング奏法と判断されたか(奏法が変化したか)、前回の判断タイミングでサブトーン奏法と判断され、今回の判断タイミングでもサブトーン奏法と判断されたか(奏法が変化していない)、の判断を行う。今回の判断タイミング(第1のタイミング)で判断された奏法と、前記前回の判断タイミング(第2のタイミング)で判断された奏法が変化していなければ、上記ステップSB11の判断結果は「NO」になり、本処理を終える。 For example, whether or not it was determined to be a normal performance style at the previous determination timing (second timing), was determined to be a toning performance style at this determination timing (first timing) (whether the performance style changed), or a subtone at the previous determination timing. It is judged whether or not it is judged that the rendition is the rendition and whether the subtone rendition is also judged (the rendition has not changed) even at this time. If the rendition style judged at the current judgment timing (first timing) and the rendition style judged at the previous judgment timing (second timing) have not changed, the judgment result at step SB11 is "NO". Then, this process ends.

これに対し、上記ステップSB6で保存した比較基準に対し、上記ステップSB1で取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)において、「山(極大値)の数の増加」、「山(極大値)の左側の増加」および「山(極大値)の右側の増加」の何れかが発生すると、今回の判断タイミング(第1のタイミング)で判断された奏法と、前記前回の判断タイミング(第2のタイミング)で判断された奏法の種類が変化しているとして、上記ステップSB11の判断結果が「YES」になり、ステップSB12に進む。 On the other hand, in the output distribution (histogram) of the pad data PD1 to PD12 acquired in step SB1 with respect to the comparison reference stored in step SB6, “increased number of peaks (maximum value)”, “peak (maximum value)” Value increases on the left side” and “mountain (maximum value) increases on the right side”, the rendition style determined at the current determination timing (first timing) and the previous determination timing (first timing). Assuming that the type of rendition style judged at the timing 2) has changed, the judgment result of the above step SB11 becomes “YES”, and the process proceeds to step SB12.

こうして、奏法判別テーブルPDTを参照して現在の奏法と前回の奏法とを判別し終えると、ステップSB12に進み、判別した奏法に状態遷移するのに応じて、状態変数stateを更新する。すなわち、上記の一例のように、通常の状態Normalから「サブトーン奏法」に状態遷移した場合には、状態変数stateを状態Subtoneに更新して本処理を終える。また、通常の状態Normalから「タンギング奏法」に状態遷移した場合には、状態変数stateを状態Tonguingに更新して本処理を終える。 In this way, when the current rendition style and the previous rendition style have been determined by referring to the rendition style determination table PDT, the process proceeds to step SB12, and the state variable state is updated in response to the state transition to the determined rendition style. That is, as in the above example, when the state transitions from the normal state Normal to the “subtone rendition style”, the state variable state is updated to the state Subtone, and this processing ends. When the state transitions from the normal state Normal to the “toning style”, the state variable state is updated to the state Tonguing, and this processing ends.

このように、センシングパッド処理では、ユーザ(吹奏者)が通常の奏法でマウスピース6を咥えると、その際に発生するパッドデータPD1〜PD12の出力分布(ヒストグラム)を比較基準とし、新たに取得したパッドデータPD1〜PD12の出力分布(ヒストグラム)が比較基準に対してどのように変化したか、すなわち「山の右側が減少」したか否か、「山の左側が増加」したか否か、「山(極大値)の数が1つから2つに変化」したか否かを判断した結果に応じて、奏法判別テーブルPDTから該当する奏法を判別し、判別した奏法へ状態遷移する。 As described above, in the sensing pad processing, when the user (blower) holds the mouthpiece 6 with a normal performance method, the output distribution (histogram) of the pad data PD1 to PD12 generated at that time is used as a comparison reference, and newly added. How the output distribution (histogram) of the acquired pad data PD1 to PD12 has changed with respect to the comparison reference, that is, whether "the right side of the mountain has decreased" or "the left side of the mountain has increased". , The corresponding rendition style is discriminated from the rendition style discrimination table PDT according to the result of the judgment as to whether or not the “number of peaks (maximum value) changes from one to two”, and the state transitions to the judged rendition style.

以上説明したように、本実施形態では、マウスピース6に設けたセンシングパッド7によって当該マウスピース6を咥えるユーザの舌および下唇がリードに接触する状態(接触面積)を表すパッドデータPD1〜PD12を検出してユーザの吹奏の仕方を取得するようにし、通常の奏法が為された場合のパッドデータPD1〜PD12から取得した吹奏の仕方を比較基準として保存する。そして、新たなパッドデータPD1〜PD12から取得した吹奏の仕方と保存しておいた比較基準との差異から特殊奏法(サブトーン奏法やタンギング奏法)を判別し、判別した特殊奏法(サブトーン奏法やタンギング奏法)に対応した楽音を形成するので、ビギナーユーザでも簡単にサブトーンやタンギングを吹奏することが出来る。 As described above, in the present embodiment, the pad data PD1 to 1 representing the state (contact area) in which the tongue and lower lip of the user holding the mouthpiece 6 by the sensing pad 7 provided on the mouthpiece 6 contacts the lead. The PD12 is detected to acquire the way of playing by the user, and the way of playing acquired from the pad data PD1 to PD12 when a normal performance style is performed is stored as a comparison reference. Then, the special rendition style (subtone rendition style or tongue rendition style) is discriminated from the difference between the blowing style acquired from the new pad data PD1 to PD12 and the stored comparison reference, and the discriminated special rendition style (subtone rendition style or tongue rendition style). ), a beginner user can easily play subtones or tongs.

なお、上述した実施形態では、公知の静電容量方式で接触検知するセンシングパッド7を用いるようにしたが、これに替えて、接触検知および感圧検知するセンシングパッド7を使用して吹奏時の下唇の接触面積および接触圧を検出し、検出した下唇の接触面積および接触圧に応じてサブトーンを発生させれば、実際のアコースティック管楽器におけるサブトーンの発生過程をシミュレートすることも可能であり、こうすることでよりリアルなサブトーンを得ることが出来る。 In addition, in the above-described embodiment, the sensing pad 7 for detecting contact by a known capacitance method is used, but instead of this, the sensing pad 7 for detecting contact and pressure is used, and the sensing pad 7 is used during playing. By detecting the contact area and contact pressure of the lower lip and generating a subtone according to the detected contact area and contact pressure of the lower lip, it is also possible to simulate the process of generating a subtone in an actual acoustic wind instrument. , By doing so, a more realistic subtone can be obtained.

なお、上述した実施形態では、図3(b)に図示した奏法判別テーブルPDTに基づいて、タンギング奏法の条件を満たすかサブトーン奏法の条件を満たすか等の判断を行ったが、これらの判断は、必ずしも図3(b)に図示した奏法判別テーブルPDTに従うものでなくてもよい。例えば、タンギング奏法の条件は、「山(極大値)の数が1つから2つに変化」した条件を満たす場合且つ、「山(極大値)の右側が減少」又は「山(極大値)の左側が増加」の条件が満たす場合とした。これは、ノイズが原因で、山(極大値)の数が増えることも考えられるため、「山(極大値)の数が1つから2つに変化」した条件だけではなく、「山(極大値)の右側が減少」又は「山(極大値)の左側が増加」の条件も確認することとしたが、これに限られるものではない。 In the above-described embodiment, it is determined whether the condition of the tongue rendition style or the condition of the subtone rendition style is satisfied based on the rendition style discrimination table PDT illustrated in FIG. 3B. However, the rendition style determination table PDT illustrated in FIG. For example, the condition of the tongue playing style is that the condition that "the number of peaks (maximum value) changes from one to two" is satisfied, and "the right side of the peak (maximum value) decreases" or "mountain (maximum value)". The condition of "increasing on the left side of" is satisfied. This is because it is possible that the number of peaks (maximum values) increases due to noise, so it is not only the condition that “the number of peaks (maximum values) has changed from one to two” but also “mountain (maximum values)”. It was decided to confirm the condition that “the right side of the value) decreases” or “the left side of the peak (maximum value) increases”, but the condition is not limited to this.

以上、本発明の実施形態について説明したが、本発明はそれに限定されるものではなく、本願出願の特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although the embodiment of the present invention has been described above, the present invention is not limited thereto and is included in the invention described in the claims of the present application and its equivalent scope.

以下では、本願出願当初の特許請求の範囲に記載された各発明について付記する。
(付記)
[請求項1]
吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別処理と、
前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
を実行する処理部を有することを特徴とする楽音制御装置。
Hereinafter, each invention described in the claims at the time of the application of the present application will be additionally described.
(Appendix)
[Claim 1]
A detection process of detecting wind information indicating a wind state from a detection unit,
The rendition style discrimination processing for discriminating which rendition style among a plurality of rendition styles from the difference between the wind performance information detected from the detection section and the comparison reference information stored in the storage section,
A musical tone instruction process for instructing a sound source to generate a musical tone corresponding to a rendition style discriminated by the rendition style discrimination process,
A musical sound control apparatus having a processing unit for executing the following.

[請求項2]
前記処理部は、更に、通常の奏法が為された場合に、前記検出部から検出される前記吹奏情報を前記比較基準情報として前記保存部に保存する保存処理と、を実行することを特徴とする請求項1に記載の楽音制御装置。
[Claim 2]
The processing unit further performs a storage process of storing the wind information detected by the detection unit in the storage unit as the comparison reference information when a normal rendition style is performed. The musical sound control device according to claim 1.

[請求項3]
前記検出部は、ユーザの舌及び下唇の接触を検出する検出パッドをマウスピースに複数備え、
前記検出処理は、前記検出処理として、前記舌および前記下唇が前記マウスピースに接触する状態を前記吹奏情報として検出することを特徴とする請求項1又は2に記載の楽音制御装置。
[Claim 3]
The detection unit includes a plurality of detection pads on the mouthpiece for detecting contact between the user's tongue and lower lip,
The musical sound control device according to claim 1 or 2, wherein the detection processing detects, as the detection information, a state in which the tongue and the lower lip are in contact with the mouthpiece as the wind information.

[請求項4]
前記処理部は、前記奏法判別処理として、前記複数の検出パッドから検出される前記吹奏情報が、前記保存部に保存した前記比較基準情報に対し、少なくとも、サブトーン奏法、タンギング奏法及び前記通常の奏法のいずれかの奏法かを判別することを特徴とする請求項3記載の楽音制御装置。
[Claim 4]
As the rendition style determination process, the processing section includes at least a subtone rendition style, a tongue rendition style, and the normal rendition style with respect to the comparison reference information stored in the storage section, the wind information being detected from the plurality of detection pads. 4. The musical tone control apparatus according to claim 3, wherein the musical tone control apparatus determines which one of the playing styles.

[請求項5]
吹奏の状態を示す吹奏情報を検出する検出部と、
楽音を生成する音源部と、
請求項1乃至3のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
[Claim 5]
A detection unit for detecting wind information indicating the state of wind,
A sound source section that generates musical sounds,
A musical sound control device according to any one of claims 1 to 3,
An electronic musical instrument comprising:

[請求項6]
楽音制御装置で実行され、
吹奏の状態を示す吹奏情報を検出部から検出し、
検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別し、
判別した奏法に対応した楽音の生成を音源に指示する
ことを特徴とする楽音発生方法。
[Claim 6]
Executed by the musical tone control device,
Detects wind information indicating the state of wind from the detector,
From the difference between the wind information detected by the detection unit and the comparison reference information stored in the storage unit, it is determined which one of the plurality of rendition styles,
A musical tone generation method characterized by instructing a sound source to generate a musical tone corresponding to a determined performance style.

[請求項7]
楽音制御装置に搭載されるコンピュータに、
吹奏の状態を示す吹奏情報を検出部から検出する検出ステップと、
前記検出部から検出される吹奏情報と、保存部に保存されている比較基準情報との差異から、複数の奏法のうちのいずれの奏法かを判別する奏法判別ステップと、
前記奏法判別ステップによって判別した奏法に対応した楽音の生成を音源に指示する楽音指示ステップと、
を実行させることを特徴とするプログラム。
[Claim 7]
In the computer installed in the tone control device,
A detection step of detecting wind information indicating the state of wind from the detection unit,
The rendition style determination step of determining which rendition style among a plurality of rendition styles from the difference between the wind performance information detected by the detection unit and the comparison reference information stored in the storage unit,
A musical tone instructing step for instructing a sound source to generate a musical tone corresponding to the rendition style discriminated by the rendition style discrimination step,
A program characterized by causing to execute.

1 本体
2 音高キー
3 開口端
4 スピーカ
5 操作部
6 マウスピース
7 センシングパッド
8 息圧センサ
9 入力部
10 A/D変換部
11 CPU
12 ROM
13 RAM
14 音源
15 サウンドシステム
100 電子管楽器
1 Main Body 2 Pitch Key 3 Open End 4 Speaker 5 Operation Section 6 Mouthpiece 7 Sensing Pad 8 Breath Pressure Sensor 9 Input Section 10 A/D Converter 11 CPU
12 ROM
13 RAM
14 Sound source 15 Sound system 100 Electronic wind instrument

Claims (9)

吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
前記検出部から検出される吹奏情報に基づいて、第1の奏法と前記第1の奏法とは異なる第2の奏法とを含む複数の奏法のうちのいずれの奏法が為されたかを判別する奏法判別処理と、
前記奏法判別処理により前記第1の奏法が為されたと判されたときに前記検出部で検出されていた前記吹奏情報を比較基準情報として保存部に保存する保存処理と、
前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
を実行する処理部を有し、
前記奏法判処理は、前記検出部から検出される吹奏情報と、前記保存部に保存されている前記比較基準情報との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別する、楽音制御装置。
A detection process of detecting wind information indicating a wind state from a detection unit,
A rendition style that determines which rendition style among a plurality of rendition styles including a first rendition style and a second rendition style different from the first rendition style is performed based on the wind performance information detected by the detection unit. Discrimination processing,
A storage process of storing the blowing information said has been detected by the detection unit when the first rendition by the rendition style determination processing is determine by to have been made in the storage unit as the comparison reference information,
A musical tone instruction process for instructing a sound source to generate a musical tone corresponding to a rendition style discriminated by the rendition style discrimination process,
Has a processing unit for executing
The style-of-rendition Determination process, a blowing information detected from the detection unit, the difference between the comparison reference information stored in the storage unit, one of the rendition style among the plurality of style-of-rendition is made A musical tone control device that discriminates.
前記第1の奏法は、通常の奏法であり、
前記第2の奏法は、タンギング奏法またはサブトーン奏法を含む前記通常の奏法とは異なる特殊奏法である、請求項1に記載の楽音制御装置。
The first playing style is a normal playing style,
The musical tone control device according to claim 1, wherein the second rendition style is a special rendition style different from the normal rendition style including a tongue rendition style or a subtone rendition style.
前記検出部は、ユーザの唇の接触を検出する複数の検出パッドが特定の方向に配列されており、
前記検出処理は、前記複数の検出パッドのそれぞれで検出される検出値の前記特定の方向における分布状態を前記吹奏情報として検出し、
前記奏法判処理は、前記検出部から検出される前記吹奏情報が示す前記分布状態と、前記保存部に保存されている前記比較基準情報が示す前記分布状態との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別する、請求項1または2に記載の楽音制御装置。
The detection unit, a plurality of detection pads for detecting the contact of the user's lip is arranged in a specific direction,
The detection processing detects a distribution state in the specific direction of detection values detected by each of the plurality of detection pads as the wind information,
The style-of-rendition Determination process, and the distribution state indicated by the blowing information detected from the detection unit, the difference between the distribution indicated by the comparison reference information stored in the storage unit, the plurality of rendition The musical sound control device according to claim 1 or 2, which determines which one of the rendition styles has been performed.
前記奏法判処理は、前記吹奏情報が示す前記分布状態と前記比較基準情報が示す前記分布状態との差異として、前記特定の方向における検出値の分布の極大値の数の差異である第1の差異、前記極大値に対して第1方向にある検出値の差異である第2の差異、前記極大値に対して前記第1方向と反対の第2方向にある検出値の差異である第3の差異、のうちの少なくとも1つの差異に基づいて、前記複数の奏法のうちのいずれの奏法が為されたかを判別する、請求項3に記載の楽音制御装置。 The style-of-rendition Determination process, as the difference between the distribution indicated by the distribution and the comparison reference information the blowing information indicates that, first a number of differences in the maximum value of the distribution of the detected values in the specific direction 1 Difference, a second difference that is a difference in the detected value in the first direction with respect to the maximum value, and a second difference that is a difference in the detected value in the second direction opposite to the first direction with respect to the maximum value. 4. The musical sound control device according to claim 3, wherein which of the plurality of rendition styles is performed is determined based on at least one of the three differences. 前記奏法判処理は、前記第1の差異と前記第2の差異と前記第2の差異の組み合わせに応じて、通常の奏法、タンギング奏法、サブトーン奏法のうちの少なくとも1つを含む複数の奏法のいずれが為されたかを判別する、請求項4に記載の楽音制御装置。 The style-of-rendition Determination process, wherein the first difference and the second difference according to the combination of the second difference, normal playing, tonguing rendition style, a plurality of rendition style including at least one of subtone playing 5. The musical sound control device according to claim 4, which discriminates which one has been performed. 前記検出部は、ユーザの舌及び下唇の接触を検出する検出パッドをマウスピースに複数備え、
前記検出処理は、前記検出処理として、前記舌および前記下唇が前記マウスピースに接触する状態を前記吹奏情報として検出する、請求項1乃至5のいずれか一項に記載の楽音制御装置。
The detection unit includes a plurality of detection pads on the mouthpiece for detecting contact between the user's tongue and lower lip,
The musical sound control device according to claim 1, wherein the detection process detects, as the wind information, a state in which the tongue and the lower lip are in contact with the mouthpiece, as the detection process.
吹奏の状態を示す吹奏情報を検出する検出部と、
楽音を生成する音源部と、
請求項1乃至6のいずれかに記載の楽音制御装置と、
を備えることを特徴とする電子楽器。
A detection unit for detecting wind information indicating the state of wind,
A sound source section that generates musical sounds,
A musical sound control device according to any one of claims 1 to 6,
An electronic musical instrument comprising:
楽音制御装置が、
吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
前記検出部から検出される吹奏情報に基づいて、第1の奏法と前記第1の奏法とは異なる第2の奏法とを含む複数の奏法のうちのいずれの奏法が為されたかを判別する奏法判別処理と、
前記奏法判別処理により前記第1の奏法が為されたと判されたときに前記検出部で検出されていた前記吹奏情報を比較基準情報として保存部に保存する保存処理と、
前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
を実行し、
前記奏法判処理は、前記検出部から検出される吹奏情報と、前記保存部に保存されている前記比較基準情報との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別する、
ことを特徴とする楽音発生方法。
The tone control device
A detection process of detecting wind information indicating a wind state from a detection unit,
A rendition style that determines which rendition style among a plurality of rendition styles including a first rendition style and a second rendition style different from the first rendition style is performed based on the wind performance information detected by the detection unit. Discrimination processing,
A storage process of storing the blowing information said has been detected by the detection unit when the first rendition by the rendition style determination processing is determine by to have been made in the storage unit as the comparison reference information,
A musical tone instruction process for instructing a sound source to generate a musical tone corresponding to a rendition style discriminated by the rendition style discrimination process,
Run
The style-of-rendition Determination process, a blowing information detected from the detection unit, the difference between the comparison reference information stored in the storage unit, one of the rendition style among the plurality of style-of-rendition is made To judge,
A musical tone generating method characterized by the above.
コンピュータに、
吹奏の状態を示す吹奏情報を検出部から検出する検出処理と、
前記検出部から検出される吹奏情報に基づいて、第1の奏法と前記第1の奏法とは異なる第2の奏法とを含む複数の奏法のうちのいずれの奏法が為されたかを判別する奏法判別処理と、
前記奏法判別処理により前記第1の奏法が為されたと判されたときに前記検出部で検出されていた前記吹奏情報を比較基準情報として保存部に保存する保存処理と、
前記奏法判別処理によって判別した奏法に対応した楽音の生成を音源に指示する楽音指示処理と、
を実行させ、
前記奏法判処理は、前記検出部から検出される吹奏情報と、前記保存部に保存されている前記比較基準情報との差異から、前記複数の奏法のうちのいずれの奏法が為されたかを判別する、
ことを特徴とするプログラム。
On the computer,
A detection process of detecting wind information indicating a wind state from a detection unit,
A rendition style that determines which rendition style among a plurality of rendition styles including a first rendition style and a second rendition style different from the first rendition style is performed based on the wind performance information detected by the detection unit. Discrimination processing,
A storage process of storing the blowing information said has been detected by the detection unit when the first rendition by the rendition style determination processing is determine by to have been made in the storage unit as the comparison reference information,
A musical tone instruction process for instructing a sound source to generate a musical tone corresponding to a rendition style discriminated by the rendition style discrimination process,
Run
The style-of-rendition Determination process, a blowing information detected from the detection unit, the difference between the comparison reference information stored in the storage unit, one of the rendition style among the plurality of style-of-rendition is made To judge,
A program characterized by that.
JP2016060475A 2016-03-24 2016-03-24 Musical tone control device, electronic musical instrument, musical tone control method and program Active JP6710432B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016060475A JP6710432B2 (en) 2016-03-24 2016-03-24 Musical tone control device, electronic musical instrument, musical tone control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016060475A JP6710432B2 (en) 2016-03-24 2016-03-24 Musical tone control device, electronic musical instrument, musical tone control method and program

Publications (3)

Publication Number Publication Date
JP2017173610A JP2017173610A (en) 2017-09-28
JP2017173610A5 JP2017173610A5 (en) 2019-04-25
JP6710432B2 true JP6710432B2 (en) 2020-06-17

Family

ID=59970984

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016060475A Active JP6710432B2 (en) 2016-03-24 2016-03-24 Musical tone control device, electronic musical instrument, musical tone control method and program

Country Status (1)

Country Link
JP (1) JP6710432B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03219295A (en) * 1990-01-25 1991-09-26 Yamaha Corp Electronic musical instrument
JPH0772853A (en) * 1993-06-29 1995-03-17 Yamaha Corp Electronic wind instrument
JP2000122641A (en) * 1998-10-21 2000-04-28 Casio Comput Co Ltd Electronic wind instrument
JP6402493B2 (en) * 2014-05-29 2018-10-10 カシオ計算機株式会社 Electronic musical instrument, pronunciation control method, and program

Also Published As

Publication number Publication date
JP2017173610A (en) 2017-09-28

Similar Documents

Publication Publication Date Title
US7633003B2 (en) Performance control apparatus and program therefor
JP2022063777A (en) Performance information prediction device, effective string vibration determination model training device, performance information generation system, performance information prediction method, and effective string vibration determination model training method
JP6724879B2 (en) Reproduction control method, reproduction control device, and program
US8106287B2 (en) Tone control apparatus and method using virtual damper position
JP4656822B2 (en) Electronic musical instruments
CN111986638A (en) Electronic wind instrument, musical sound generation device, musical sound generation method, and recording medium
US20130298750A1 (en) Automatic accompaniment apparatus for electronic keyboard musical instrument and fractional chord determination apparatus used in the same
JP6175812B2 (en) Musical sound information processing apparatus and program
JP5188863B2 (en) Electronic musical instruments
US11749239B2 (en) Electronic wind instrument, electronic wind instrument controlling method and storage medium which stores program therein
US11594206B2 (en) Electronic wind instrument and control method thereof
US5010801A (en) Electronic musical instrument with a tone parameter control function
JP6710432B2 (en) Musical tone control device, electronic musical instrument, musical tone control method and program
JP2006251376A (en) Musical sound controller
JP6703304B2 (en) Musical tone control device, electronic wind instrument, musical tone control method and program
JP2015225332A (en) Musical tone generation device, electronic musical instrument, musical tone generation method, and program
JP3303608B2 (en) Automatic performance device
JP2018155797A (en) Electronic wind instrument, control method of electronic wind instrument, and program for electronic wind instrument
JP2005128208A (en) Performance reproducing apparatus and performance reproducing control program
JP6758593B2 (en) Electronic wind instruments, musical tone generation methods and programs
JP5827484B2 (en) Music control device
JP2017167418A (en) Electronic wind instrument, music sound production method, and program
JP3767418B2 (en) Automatic performance device and automatic performance control program
JP2004246379A (en) Karaoke device
JP4978170B2 (en) Performance device and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190312

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200510

R150 Certificate of patent or registration of utility model

Ref document number: 6710432

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150