CN108630176B - 电子管乐器及其控制方法以及记录介质 - Google Patents
电子管乐器及其控制方法以及记录介质 Download PDFInfo
- Publication number
- CN108630176B CN108630176B CN201810213658.9A CN201810213658A CN108630176B CN 108630176 B CN108630176 B CN 108630176B CN 201810213658 A CN201810213658 A CN 201810213658A CN 108630176 B CN108630176 B CN 108630176B
- Authority
- CN
- China
- Prior art keywords
- data
- mode
- value
- performance
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
- G10H1/0058—Transmission between separate instruments or between individual components of a musical system
- G10H1/0066—Transmission between separate instruments or between individual components of a musical system using a MIDI interface
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/04—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
- G10H1/053—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
- G10H1/04—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation
- G10H1/053—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only
- G10H1/055—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by switches with variable impedance elements
- G10H1/0551—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos by additional modulation during execution only by switches with variable impedance elements using variable capacitors
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/32—Constructional details
- G10H1/34—Switch arrangements, e.g. keyboards or mechanical switches specially adapted for electrophonic musical instruments
- G10H1/344—Structural association with individual keys
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/195—Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
- G10H2210/221—Glissando, i.e. pitch smoothly sliding from one note to another, e.g. gliss, glide, slide, bend, smear, sweep
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/155—User input interfaces for electrophonic musical instruments
- G10H2220/361—Mouth control in general, i.e. breath, mouth, teeth, tongue or lip-controlled input devices or sensors detecting, e.g. lip position, lip vibration, air pressure, air velocity, air flow or air jet angle
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/315—Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
- G10H2250/461—Gensound wind instruments, i.e. generating or synthesising the sound of a wind instrument, controlling specific features of said sound
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Power Engineering (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明提供能够高效地提高演奏能力的电子管乐器、该电子管乐器的控制方法以及记录有该电子管乐器用的程序的记录介质。本发明的电子管乐器(100)具备用于指定音高的多个演奏键(1A)、至少检测吹气操作的气息传感器(10)和控制部(CPU5),控制部(CPU5)选择性地切换第1模式和第2模式,在第1模式中输出基于吹气操作以及多个演奏键1A中至少一个演奏键1A的操作而生成的第1音波形数据,在第2模式中,在检测到吹气操作的情况下,与至少一个演奏键1A的操作的检测或非检测无关地,输出基于曲数据的第2音波形数据。
Description
相关申请的参照
本申请主张以如下申请为基础的优先权,将如下基础申请的内容全部并入本申请:
2017年3月15日申请的日本国专利愿特愿2017-49331,
2017年3月15日申请的日本国专利愿特愿2017-050121,
2017年3月15日申请的日本国专利愿特愿2017-050057,
2017年9月27日申请的日本国专利愿特愿2017-186499。
技术领域
本发明涉及电子管乐器、该电子管乐器的控制方法以及记录有该电子管乐器用的程序的记录介质。
背景技术
以往,已知有具有如下特征的乐器:具备:口输入部,用于输入从演奏者的口产生的信号;存储部,对表示适于旋律音的伴奏音的第1演奏数据进行存储;级别(level)检测部,对从上述口输入部输入的信号的级别进行检测,该检测到的级别在规定级别以上时输出触发信号;读出处理部,基于从上述级别检测部输出的触发信号,从上述存储部读出上述第1演奏数据;以及第1乐音生成部,基于由上述读出处理部读出的第1演奏数据,生成上述伴奏音的第1乐音生成部(参照专利文献1)。
而且,在专利文献1中记载着:若是上述那样的乐器,能够以适于旋律音的伴奏音来演奏,并且,即使由口产生的音调(pitch)信息出现错误,只要对口输入部输入规定级别以上的信号,演奏的进行就能够不停止地进行,即使是初学者也不会厌倦练习而能够持续练习,并且,由于演奏的进行不停止,从而与其他人同时练习演奏的情况下是优选的。
专利文献1:日本特开2008-152297号公报
然而,在管乐器中,通过演奏者的吐息(日语原文:息遣い)和演奏键的操作来进行演奏,但在初学者练习时,认为能够进行例如仅专注于吐息练习的练习是优选的,电子管乐器的练习模式依然有改善的余地。
而且,由于能够个别地集中地练习这样的管乐器才有的吐息的操作,由此能够高效地提高演奏能力。
本发明的一个优点是能够良好地提高演奏能力。
发明内容
本发明的一实施形态的电子管乐器其特征在于,具备:多个演奏键,用于指定音高;气息传感器,至少对吹气操作进行检测;以及控制部,上述控制部选择性地在第1模式和第2模式之间进行切换,上述第1模式是输出基于上述吹气操作以及上述多个演奏键中至少一个演奏键的操作而生成的第1音波形数据的模式,上述第2模式是在检测到上述吹气操作的情况下,与上述至少一个演奏键的操作的检测或非检测无关地,输出基于曲数据以及上述吹气操作的第2音波形数据的模式。
附图说明
以下的详细描述若结合以下附图一起考虑,则能够更深刻地理解本申请。
图1是表示本发明涉及的实施方式的电子管乐器的图,(a)是电子管乐器的主视图,(b)是电子管乐器的侧视图。
图2是本发明涉及的实施方式的电子管乐器的框图。
图3是本发明涉及的实施方式的吹口部的剖视图。
图4是表示练习模式的处理的主程序的流程图。
图5是作为图4的主程序中的子流程的吐息练习模式(第2模式)的流程图。
图6是表示第2模式的变形例的子流程的流程图。
图7是作为图6的子流程的制作连续数据(continuous data)的数据值的修正数据值的部分的流程图。
图8是表示加了演奏键练习模式(第4模式)的练习模式的处理的主程序的流程图。
图9是作为图8的主程序中的子流程的演奏键练习模式(第4模式)的流程图。
具体实施方式
以下,参照附带的附图,对本发明涉及的实施方式进行说明。
图1是表示本发明的实施方式涉及的电子管乐器100的图,图1(a)是电子管乐器100的主视图,图1(b)是电子管乐器100的侧视图,图2是电子管乐器100的框图,图3是吹口部3的剖视图。
此外,在图1(a)中,为了便于理解电子管乐器100的内部,将管体部100a的一部分切开进行图示。
在本实施方式中,以电子管乐器100是萨克斯管的情况为例进行说明,但本发明的电子管乐器100也可以是萨克斯管以外的电子管乐器(例如,单簧管等)。
如图1所示,电子管乐器100具备形成为萨克斯管的形状的管体部100a、包括配置于管体部100a的外面的多个演奏键1A的操作件1、设于管体部100a的前端部一侧的发音部2、以及设于管体部100a的基端部一侧的吹口部3。
另外,如图1(a)所示,电子管乐器100具备设于管体部100a的基端部一侧的内部的基板4,在该基板4上设有CPU5(Central Processing Unit:中央处理器)、ROM6(Read OnlyMemory:只读存储器)、RAM7(Random Access Memory:随机存取存储器)以及音源部8等。
并且,如图3所示,吹口部3具备:吹口主体3a、设于吹口主体3a的固定配件3b、由固定配件3b安装于吹口主体3a的舌簧部3c、设于吹口主体3a的前端侧的气息(breath)传感器10、设于吹口主体3a内的声音传感器11、设于舌簧部3c的舌部传感器12、设于舌簧部3c的唇部传感器13。
此外,唇部传感器13如后述那样地包括唇部压力传感器部13a和唇部位置传感器部13b。
另外,电子管乐器100具备设于管体部100a的外面的显示部14(参照图2)。
例如,显示部14具备带触摸传感器的液晶画面等,不仅进行各种显示,还能进行各种设定操作。
并且,如图2所示,电子管乐器100具备用来使演奏键1A发光的光源部9。
例如,光源部9包括设于各个演奏键1A的LED和控制该LED的LED控制驱动器等,如随后说明地使演奏者应该操作的演奏键1A发光,进行演奏的引导。
而且,各功能部(操作件1、CPU5、ROM6、RAM7、音源部8、光源部9、气息传感器10、声音传感器11、舌部传感器12、唇部传感器13、显示部14等)通过总线15连接。
操作件1是演奏者(用户)通过手指操作的操作部,包括用于指定音高的演奏键1A、对配合乐曲的键而改变音高的功能以及进行音高的微调的功能等进行设定的设定键1B。
发音部2对从后述的音源部8输入的乐音信号实施信号放大等,从内置的扬声器作为乐音输出。
但是,在本实施方式中,虽然在电子管乐器100内置发音部2,但是发音部2不限于内置型的,也可以是连接于电子管乐器100的外部输出端口(未图示)的外置型。
CPU5作为控制电子管乐器100的各部的控制部发挥功能,从ROM6读出指定的程序并展开到RAM7,与展开的程序配合地执行各种处理。
虽然稍后会详细说明,CPU5例如基于曲数据(MIDI数据)和基于气息传感器10的向吹口部3的吹气操作等,将对来自发音部2的音的发音和/或消音进行控制的控制数据输出到音源部8,进行从发音部2发出声音的控制和/或使发音部2消音的控制等。
另外,虽然稍后会详细说明,CPU5也基于曲数据(MIDI数据),进行使光源部9对多个演奏键1A中应操作的演奏键1A发光的控制等。
ROM6是读取专用的存储部,存储用于控制电子管乐器100的各部的程序、后述的曲数据(MIDI数据)等。
RAM7是能读写的存储部,作为暂时存储从各传感器(气息传感器10、声音传感器11、舌部传感器12以及唇部传感器13等)取得的数据、程序以及曲数据等的工作区发挥功能。
音源部8按照基于操作件1的操作信息以及由各传感器取得的数据等来自CPU5的控制数据,生成乐音信号并将乐音信号输出到发音部2。
吹口部3是演奏者在演奏时用口含的部分,具备各传感器(气息传感器10、声音传感器11、舌部传感器12以及唇部传感器13等),对由演奏者的舌、气息以及声等进行的演奏用的各种操作进行检测。
接下来,具体地对各传感器(气息传感器10、声音传感器11、舌部传感器12以及唇部传感器13等)进行说明。
此外,请留意以下要说明的各传感器的功能等是对主要功能等的说明,也可以带有其他功能等。
气息传感器10具备压力传感器,通过气息传感器10,进行从吹口主体3a的基端部一侧的吹入气息的开口部3aa吹入的演奏者的气息量·气息压等气息(breath)值的检测。
此外,气息值从气息传感器10的输出信号取得,通过该气息值的取得,检测吹气操作。
而且,由气息传感器10检测的气息值在CPU5进行乐音的音符开/关、乐音的音量等设定时被使用。
另外,由气息传感器10检测的气息值在CPU5决定颤音(tremolo)演奏法的音量时被使用。
声音传感器11具备麦克风,由声音传感器11进行演奏者的吼音(Growl)演奏用的声音(吼音波形)的检测。
此外,由声音传感器11检测的声音(吼音波形)在CPU5决定吼音波形数据的合成比率时被使用。
舌部传感器12具备在舌簧部3c的最基端部一侧(尖侧)的位置设有检测部12s的压力传感器或者静电电容传感器,通过舌部传感器12进行向舌簧部3c的基端部一侧的位置有无舌接触的检测(运舌(tonguing)的检测)。
此外,由舌部传感器12检测到的舌接触的有无在CPU5进行乐音的音符开/关的设定时被使用,并且,在对应于舌接触的有无和气息传感器10的气息值的检测状态双方的状态来进行音高的设定时被使用。
唇部传感器13具备从舌簧部3c的基端部一侧(尖侧)向前端侧(跟侧)设置多个检测部13s的压力传感器或者静电电容传感器,作为唇部压力传感器部13a以及唇部位置传感器部13b发挥功能。
具体而言,唇部传感器13基于由多个检测部13s的哪个检测部13s检测到唇部的接触,发挥作为检测唇部位置的唇部位置传感器部13b的作用、和作为检测该接触到的唇部的接触强度的唇部压力传感器部13a的作用。
此外,由多个检测部13s检测唇部接触的情况下,基于从唇部传感器13的输出,CPU5求出接触中心位置,从而求出唇部位置。
例如,在唇部传感器13具有压力传感器的情况下,基于压力传感器检测的压力的变化,进行唇部的接触强度(唇部压力)以及唇部位置的检测。
另外,在唇部传感器13具有静电电容传感器的情况下,基于静电电容传感器检测的静电电容的变化,进行唇部的接触强度(唇部压力)以及唇部位置的检测。
而且,由作为唇部压力传感器部13a的唇部传感器13进行的唇部的接触强度(唇部压力)的检测结果以及由作为唇部位置传感器部13b的唇部传感器13进行的唇部位置的检测结果,为了控制抖音(vibrato)演奏、沙哑音色(Sub tone)演奏而使用。
具体而言,基于唇部的接触强度(唇部压力)的变化状态,CPU5检测抖音演奏,进行对应于抖音的处理,基于唇部位置的变化状态(位置以及接触面积等的变化状态),检测沙哑音色演奏,进行对应于沙哑音色的处理。
而且,虽然演奏者通过进行与演奏通常的萨克斯管时相同的操作来进行演奏电子管乐器100,但本实施方式的电子管乐器100使例如初学者的以高效的演奏能力的提高为目标的练习成为可能,以下,具体地进行说明。
之前稍微介绍了一下,在ROM6中存储所谓称为MIDI数据的曲数据。
曲数据中包含利用本乐器的发音部2使萨克斯管即电子管乐器100(以下,也称为本乐器。)以外的乐器进行的伴奏等发音用的数据、使本乐器自动演奏用的数据等。
例如,对应于一口气演奏的区间(以下,也称为吹气操作区间)设置标记(以下,也称为识别符),使本乐器自动演奏用的数据具备用来在各吹气操作区间依次使从发音部2发出的音的定时信息(音符开(ON)数据)、发音开始之后发出的音发音继续到下一个音的发音的信息(连续数据)。
而且,对本实施方式的电子管乐器100,稍后边参照图4以及图5所示的流程图等边详细地进行说明,利用该曲数据,设置了演奏者进行吹气操作以及演奏键1A的操作双方的练习的整体练习模式(第1模式),专注于吐息地进行练习的吐息练习模式(第2模式)等。
整体练习模式(第1模式)是,在进行吹气操作以及演奏键1A的操作的情况下,CPU5基于吹气操作以及演奏键1A的操作在音源部8生成对发音部2输出的乐音信号(第1音波形数据),基于吹气操作的检测从发音部2输出所生成的第1音波形数据的、与通常的演奏相近的模式,例如在CPU5进行引导演奏的控制这一点上与通常的演奏不同。
具体而言,CPU5为了引导演奏,进行在演奏者应操作的演奏键1A的定时使光源部9发光、在应停止演奏键1A的操作的定时使光源部9停止演奏键1A的发光的控制。
在吐息练习模式(第2模式)中,演奏者仅进行与吹气操作区间对应的吹气操作,关于从发音部2的发音,基于曲数据的应从发音部2发出的音的定时信息(音符开数据)、用于使发音开始之后发出的音继续发音到下一个音的发音的信息(连续数据)来进行,演奏者即使不操作演奏键1A也能进行从发音部2的音的发音。
换言之,在吐息练习模式(第2模式)中,由气息传感器10检测到吹气操作的情况下,取代从发音部2输出基于吹气操作以及演奏键1A的操作应该生成并输出的输出预定音波形数据,与演奏键1A的操作的检测或非检测无关地,CPU5使音源部8生成基于曲数据的第2音波形数据,从发音部2基于吹气操作的检测使基于该曲数据生成的第2音波形数据的音发音(输出)。
这样由于CPU5基于气息传感器10的吹气操作的检测,与演奏键1A的操作无关地进行从发音部2发出基于曲数据的音的控制,因此演奏者能够以在中途不进行额外的换气的方式,专注于进行与吹气操作区间对应的吹气操作地进行练习。
因此,在吐息练习模式(第2模式)中,能够不在意演奏键1A的操作,专注于吐息地进行练习,能够高效地学会吐息。
另外,如上述那样,用于自动演奏本乐器的数据,与一口气演奏的区间(吹气操作区间)对应地设置标记(识别符),不以1曲为单位进行以吐息练习模式进行的练习,而是以演奏者设定的吹气操作区间为练习区间进行练习。
换言之,演奏者能够选择并设定曲数据的任意的吹气操作区间,因此演奏者能够在特别想进行练习的吹气操作区间(例如,连续的两个吹气操作区间、一口气的吹气操作区间等)集中地练习。
更具体地说明的话,管乐器中,在一口气演奏的区间(吹气操作区间)中有连续的多个音符的情况很多,演奏者继续吹气操作直到对应于该音符的音全部发出,并且,在使对应于最后的音符的音结束的定时停止吹气操作。
因此,例如在一个吹气操作区间有连续的3个音符的情况下,将该吹气操作区间设定为练习区间时,进行练习用于使发音部2发出对应于该3个音符的音的适当的吹气操作(吹气继续操作)的设定。
以下,边参照图4以及图5边对吐息练习模式等更详细地进行说明。
图4是表示练习模式的处理的主程序的流程图,图5是图4的主程序中的子流程即吐息练习模式(第2模式)的流程图。
演奏者选择练习模式中的“整体练习模式(第1模式)”以及“吐息练习模式(第2模式)”的某一个并设定了演奏哪个曲子时,开始图4所示的主程序的处理。
此外,如上述那样,本实施方式的电子管乐器100能够选择曲数据(MIDI数据)的任意的吹气操作区间设定为练习区间。
因此,将特定的吹气操作区间设定为练习区间的情况下,选择了演奏的曲子后,演奏者选择想练习的吹气操作区间,将该选择的吹气区间设定为练习区间之后,开始图4所示的主程序的处理。
开始图4所示的主程序的处理后,CPU5判断步骤S1中演奏者选择的练习模式是否是“吐息练习模式(第2模式)”。
CPU5判断为步骤S1中是“吐息练习模式(第2模式)”(步骤S1:是)时,进入到步骤S11,进行了将从演奏键1A的输入设定为无效的处理后,进入到步骤S12,执行稍后参照图5说明的吐息练习的处理。
另一方面,CPU5判断为步骤S1中不是“吐息练习模式(第2模式)”(步骤S1:否)时,由演奏者选择的练习模式为整体练习模式(第1模式),进入到步骤S2执行整体练习的处理。
这样,CPU5按照演奏者的选择,进行选择性地切换“整体练习模式(第1模式)”和“吐息练习模式(第2模式)”的控制。
此外,所谓整体练习是指,对于本乐器以外的其他乐器的音符(例如,伴奏),基于曲数据(MIDI数据)进行自动演奏,对于本乐器演奏者自行进行全部的演奏(吐息以及演奏键1A的操作等)的练习模式,如上述那样,除了CPU5进行引导演奏的控制以外,处理与通常的演奏几乎类似,因此省略说明。
但是,如之前所述的那样,演奏者选择想练习的吹气操作区间,将该选择的吹气操作区间设定为练习区间的情况下,即使在整体练习时也仅对该练习区间执行处理。
而且,步骤S12的“吐息练习模式(第2模式)”或者步骤S2的“整体练习模式(第1模式)”的某个处理结束后,图4所示的主程序的处理结束。
接下来,边参照图5边对CPU5进行的吐息练习的处理进行说明。
演奏者选择“吐息练习模式(第2模式)”时,如上述那样,进入到步骤S12,CPU5开始图5所示的吐息练习的流程图的处理。
CPU5在步骤T1中执行将演奏者从存储于ROM6的曲数据中选择的曲数据(MIDI数据)读入到作为工作区发挥功能的RAM7的处理,进入到下一个步骤T2。
在步骤T2中,CPU5判断是否有演奏者设定为练习区间的曲数据的特定的吹气操作区间,CPU5在步骤T2中判断为有演奏者设定的曲数据的特定的吹气操作区间(步骤T2:是)的情况下,进入到步骤T3,CPU5仅将曲数据的吹气操作区间中演奏者设定的特定的吹气操作区间设定为练习区间。
此外,正如之前也接触到的那样,设定为练习区间的吹气操作区间不仅有一个吹气操作区间的情况,也有多个吹气操作区间的情况。
因此,在步骤T3的设定练习区间的处理中,设定为练习区间的吹气操作区间有多个的情况下,将这多个吹气操作区间的各个设定为练习区间。
另一方面,CPU5在步骤T2中判断为没有演奏者设定的曲数据的特定的吹气操作区间(步骤T2:否)的情况下,进入到步骤T4,CPU5将曲数据的吹气操作区间的各个设定为练习区间。
而且,执行步骤T3或者步骤T4的处理时,进入到步骤T5,CPU5基于曲数据从发音部2开始本乐器以外的其他乐器的部分即伴奏的发音。
具体而言,CPU5根据曲数据,依次将对应于伴奏的音符数据(音符开数据,音符关(OFF)数据等)、连续数据等的控制数据输出到音源部8,使音源部8生成乐音信号并将该乐音信号送至发音部2,发音部2进行按照乐音信号的发音。
此外,以下虽省略了关于伴奏部分的说明,但在本实施方式中,演奏者的吹气操作中途停止,换言之,在吹气操作应继续的时间的期间,因为无法进行吹气操作等而本乐器的演奏停止时,控制成自动演奏的伴奏也成为停止状态,对应于吹气操作的重新开始,后续重新开始伴奏的自动演奏。
开始伴奏的发音(步骤T5)时,进入到步骤T6,CPU5进行设定最初的练习区间(最初设定的曲数据的吹气操作区间)的处理,接着进入到步骤T7,CPU5对该设定的练习区间的最初的音(基于练习区间的曲数据的至少1个以上的第2音波形数据中最初的第2音波形数据的音)进行设定。
而且,进入到步骤T8,CPU5监视用于开始所设定的音的发音的练习区间的吹气操作的定时的到来。
换言之,CPU5在步骤T8中继续判断是否是练习区间的吹气操作开始的定时,在判断为是吹气操作开始的定时(步骤T8:是)时,进入到下一个步骤T9中。
进入到步骤T9时,CPU5判断是否是演奏者可以发出本乐器的音的状态。
具体而言,进行从气息传感器10输出的气息值是否是比阈值大的值、是否正由演奏者进行吹气操作的判定,并且,判断是否未处于停止由舌部传感器12的舌的接触检测(运舌)所引起的发音的操作状态。
而且,在气息值是阈值以下且不是基于舌部传感器12的没有舌检测的状态的情况下(步骤T9:否),CPU5进入到步骤T10判断从本乐器的发音部2的发音是否是停止中,CPU5在步骤T10中判断为是发音中的情况下,进入到步骤T11,将本乐器的音的消音的控制数据(音符关数据)输出到音源部8,进行了使从发音部2的发音消音的控制后,再次进行步骤T9的是否是气息值比阈值大且没有舌检测的状态的判定。
另一方面,CPU5在步骤T10中判断为发音停止中(步骤T10:是)的情况下,不进入到步骤T11,而是再次进行步骤T9的是否是气息值比阈值大且没有舌检测的状态的判定。
换言之,CPU5控制成不进入到步骤T12而成为等待状态,直到成为气息值比阈值大且没有舌检测的状态为止(步骤T9:是)。
而且,步骤T9的判定为“是”时进入到步骤T12,CPU5将在步骤T7中设定的音(基于曲数据的最初的第2音波形数据的音)的发音的控制数据(音符开数据、连续数据)输出到音源部8、进行使该音从发音部2发出的控制。
接着,进入到步骤T13,CPU5判断在练习区间中是否有下一个音的数据(基于曲数据的下一个第2音波形数据)。
CPU5在步骤T13中判断为有下一个音的数据(基于曲数据的下一个第2音波形数据)(步骤T13:是)时,进入到步骤T14,CPU5执行设定练习区间中的下一个音(基于曲数据的下一个第2音波形数据)的处理,进入到步骤T15。
另一方面,CPU5在步骤T13中判断为没有下一个音的数据(基于曲数据的下一个第2音波形数据)(步骤T13:否)时,不进行步骤T14的处理,进入到步骤T15。
而且,CPU5在步骤T15中判断是否是下一个音(基于曲数据的下一个第2音波形数据的音)的音符开(发音)的定时,判断为是下一个音(基于曲数据的下一个第2音波形数据的音)的音符开(发音)的定时(步骤T15:是)时,进入到步骤T11,进行使发音部2消除当前的音的处理,并且,进入到步骤T9、步骤T12,进行使发音部2发出下一个音(基于曲数据的下一个第2音波形数据的音)的控制。
此外,从步骤T15经由步骤T11进入到步骤T9时,例如演奏者进行了换气等而步骤T9不成为“是”的状态时,与刚才相同,CPU5不进入到步骤T12,控制成为等待音的发音的状态直到演奏者可以发出本乐器的音的状态、例如吹气操作重新开始为止。
另一方面,CPU5判断为在步骤T15中判断为不是下一个音的音符开(发音)的定时(步骤T15:否)的情况下,进入到步骤T16,CPU5判断是否是练习区间的吹气操作结束的定时。
而且,CPU5在步骤T16中判断为不是吹气操作结束的定时(步骤T16:否)时,进入到步骤T17,进行与步骤T9相同的判定。
CPU5在步骤T17中判断为气息值比阈值大且没有舌检测的状态(步骤T17:是)时,由于可以发音的状态继续,因此再次进入到步骤T15。
换言之,CPU5在可以发音的状态继续的期间,继续当前的音的发音的状态下,进行成为等待的状态的控制,直到成为下一个音(基于曲数据的下一个第2音波形数据的音)的音符开的定时(步骤T15)或者吹气操作结束的定时(步骤T16)的某一个的状态。
另一方面,在该等待的状态时,有演奏者进行了换气等的情况,在该情况下,气息传感器10的气息值成为阈值以下,CPU5将步骤T17的判定判断为为否,即,判断为气息值在阈值以下且变得不再是没有舌检测的状态,进入到步骤T9,CPU5进行将音的发音消音的控制。
具体而言,由于步骤T9是与步骤T17相同的判定内容,因此,在进入到步骤T9时,CPU5判断为气息值成为阈值以下且不是没有舌检测的状态(步骤T9:否),进行当前的音的发音,因此将步骤T10的判定判断为否,在步骤T11中将音的消音的控制数据(音符关数据)输出到音源部8,使来自发音部2的发音消音了以后,进入到步骤T9,如之前说明的那样,CPU5不进入到步骤T12,而是控制成为等待音的发音的状态直到演奏者可以发出本乐器的音的状态,例如吹气操作重新开始为止。
而且,演奏者的吹气操作重新开始时,气息传感器10的气息值变得比阈值大,CPU5将步骤T9的判定判断为是,进入到步骤T12,进行所设定的下一个音的发音。
换言之,CPU5进行以下控制:在由气息传感器10检测到吹气操作,从发音部2发出(输出)了基于曲数据生成的一个以上的第2音波形数据的音以后,在曲数据的吹气操作区间结束之前,通过气息传感器10检测到吹气操作的结束(即,吹气操作变为非检测),当再次由气息传感器10检测到吹气操作时,从发音部2发出(输出)当前未在所设定的练习区间(当前所设定的曲数据的吹气操作区间)内输出的未输出的第4音波形数据(基于曲数据的下一个第2音波形数据)的音。
另一方面,练习区间的吹气操作结束的定时到来时,CPU5将步骤T16的判定判断为是,进入到步骤T18,判断气息值是否成为了阈值以下。
本来由于在步骤T16为“是”的情况下,是进行换气的定时或者演奏结束的定时,因此是进入到步骤T21进行消音的处理的定时,但演奏者不一定限于在步骤T16为“是”的定时停止吹气操作。
而且,与演奏者没停止吹气操作无关地进行消音的处理时,由于演奏者感到别扭,因此CPU5执行用于以下控制的处理:在步骤T18中判断为气息值不是不到阈值(步骤T18:否),在即使越过当前所设定的练习区间(当前所设定的曲数据的吹气操作区间)的结束位置也由气息传感器10检测出吹气操作的情况下,继续使发音部2发音。
具体而言,进入到步骤T19,CPU5判断以前执行过下一个步骤T20,循环处理数据是否向音源部8输出完毕,在判断为循环处理数据未向音源部8输出完毕(步骤T19:否)时,进入到步骤T20。
而且,在步骤T20中,CPU5进行如下控制:将基于当前所设定的练习区间(当前所设定的曲数据的吹气操作区间)的结束位置附近的曲数据继续发音的连续数据(循环处理数据)输出到音源部8,从发音部2发出(输出)按照该循环处理数据的音波形数据(第5音波形数据)的音直到步骤T18的判定成为“是”为止。
此外,也将按照该循环处理数据的音波形数据(第5音波形数据)称为基于吹气操作区间的结束位置附近的曲数据的音波形数据。
具体而言,作为循环处理数据,例如,可以设定当前所设定的练习区间(当前所设定的曲数据的吹气操作区间)的结束位置之前的音的连续数据的10%左右的范围的数据,反复使用该循环处理数据,继续从发音部2的发音,直到步骤T18的判定成为“是”为止即可。
但是,就在当前所设定的练习区间(当前所设定的曲数据的吹气操作区间)的结束位置之前是抖音的情况下,优选例如遵照了循环处理数据的音波形数据(第5音波形数据)遍及循环区间整体地被进行同程度的抖音加工处理,以使被进行了抖音加工处理的音波形数据继续从发音部2输出。
而且,CPU5在步骤T18中判断为气息值不到阈值(步骤T18:是)时,进入到步骤T21,CPU5进行了将音的消音的控制数据(音符关数据)输出到音源部8、使发音部2消音的控制后,进入到步骤T22。
在步骤T22中,CPU5判断是否有下一个练习区间,在有下一个练习区间的情况下(步骤T22:是),进入到步骤T23,CPU5设定下一个练习区间(曲数据的下一个吹气操作区间),再次执行从步骤T7的处理。
另一方面,CPU5在步骤T22中判断为没有下一个练习区间(步骤T22:否)时,返回到图4所示的主程序,整体的处理结束。
如以上所述那样,本实施方式的电子管乐器100能够个别地集中地练习吹气操作,因此能够高效地提高演奏能力。
即本实施方式的电子管乐器100,取代输出基于吹气操作以及演奏键1A的操作应该生成并输出的音波形数据,在检测出吹气操作的情况下,与演奏键1A的操作的检测或非检测无关地,输出基于曲数据生成的音波形数据。因此,即使演奏者没有在进行演奏键1A的操作而进行吹气操作的话,输出基于曲数据的乐曲,因此能够集中地练习管乐器才有的吹气操作。
(第2模式的变形例)
上述第2模式是对下述内容进行特殊化而成的:演奏者以不在中途进行额外的换气的方式专注于进行与吹气操作区间对应的吹气操作地进行练习。
因此,例如,对于初学者来说很难的抖音等演奏部分因曲数据而异。
但是,即使是在这样地进行由曲数据进行的演奏辅助的情况下,也反映了演奏者的吐息的状态,由此,仅在吹气操作区间的期间,能够不停留在正确地进行吹气的练习,而进行具有表现力的吐息的练习。
因此,以下对于不将抖音、吼音、沙哑音色等部分作为由曲数据进行的完全自动演奏,而是反映了演奏者的吐息的第2模式的变形例进行说明。
具体而言,使图5所示的流程图的步骤T12成为图6所示的第2模式的变形例的子流程那样即可。
换言之,进入刚才的步骤T12时,进行图6所示的子流程的处理。
开始图6的子流程时,进入到步骤MT1,CPU5进行将所设定的第2音波形数据的音的发音的控制数据(音符开数据)输出到音源部8,使发音部2开始该音的发音的控制。
而且,进入到步骤MT2,在从音符开到下一个音符开的期间,CPU5制作使第2音波形数据的音连续地时间变化的控制数据即曲数据(MIDI数据)的连续数据的演奏数据值的修正数据值。
具体而言,执行图7所示的流程图所示的处理。
在步骤U1中,CPU5判断从气息传感器10取得的气息值是否是曲数据中所设定的基本气息值以上,判断为气息值是基本气息值以上(步骤U1:是)时进入到步骤U2,判断为气息值不到基本气息值(步骤U1:否)时进入到步骤U3。
在步骤U2中,例如,在曲数据的连续数据的演奏数据值(数据值)是遵照了抖音奏法的数据值的情况下,CPU5对数据值进行使抖音的深度变深的修正值的计算。
另外,在数据值是遵照了吼音奏法的数据值的情况下,CPU5进行增大吼音波形的合成比(合成比率)的修正值的计算。
并且,在数据值是遵照了沙哑音色奏法的数据值的情况下,CPU5进行增大沙哑音色波形的合成比(合成比率)的修正值的计算。
具体而言,在ROM6等中设有转换表或者用于计算修正值的函数,基于基本气息值和气息值,CPU5根据转换表或者函数求出修正值。
例如,CPU5基于基本气息值和气息值的差分、气息值相对于基本气息值大百分之多少这一指标(以下,有将差分、由百分比等表示的指标仅记载为“差”的情况。),根据转换表或者函数,求出对曲数据的连续数据的数据值进行哪种程度的修正这一修正值。
在本变形例中,作为用于求出修正值的转换表或者函数,在基本气息值与气息值的差小时,成为稍少一些的修正值,在大到某一定以上差时,修正值一下子变大。
换言之,对曲数据的数据值的修正成为基于转换表或者函数的非线性的修正。
这是因为,在没有某一定以上的差的区域,抖音、吼音以及沙哑音色的变化对应于基本气息值与气息值的差的增加而以相同程度的增加量线性地增加时,作为乐音有不协调的感觉,因此,在基本气息值与气息值的差小时,成为稍少一些的修正值。
换言之,对应于基本气息值与气息值的差的增加,修正值也增加,但其增加的倾斜度较小。
另一方面,足够大的气息值时(有某一定以上的差时),以抖音、吼音以及沙哑音色也爆发的方式发音才自然,因此,对应于此,某一定以上差变大时,修正值一下子变大。
在步骤U3中,例如,在曲数据的连续数据的演奏数据值(数据值)是遵照了抖音奏法的数据值的情况下,CPU5进行使抖音的深度变浅的修正值的计算。
另外,在数据值是遵照了吼音奏法的数据值的情况下,CPU5进行减小吼音波形的合成比(合成比率)的修正值的计算。
并且,在数据值是遵照了沙哑音色奏法的数据值的情况下,CPU5进行减小沙哑音色波形的合成比(合成比率)的修正值的计算。
具体而言,在步骤U3中进行的修正值的计算也与步骤U2相同地,CPU5按照用于计算转换表或者修正值的函数进行,其理由是因为,与步骤U2说明过的相同地,通过成为非线性的修正,作为乐音不会不自然。
在步骤U4中,CPU5基于步骤U2或者步骤U3中计算出的修正值,制作进行了对曲数据的连续数据的数据值的修正的修正数据值。
若是抖音,则基于修正值对曲数据的与抖音对应的数据值(例如,弯曲数据的数据值或者调制数据的数据值)进行修正。
换言之,在气息值比基本气息值大的情况下,CPU5取得对与抖音对应的数据值进行了使抖音的深度变深的修正的修正数据值,在气息值不到基本气息值未满的情况下,CPU5取得对与抖音对应的数据值进行了使抖音的深度变浅的修正的修正数据值。
此外,在气息值与基本气息值一致的情况下,以修正数据值成为曲数据的与抖音对应的数据值本身的方式设定修正值。
例如,修正数据值是对曲数据的与抖音对应的数据值乘以修正值的情况下,使修正值为1即可,修正数据值是对曲数据的与抖音对应的数据值加上修正值的情况下,使修正值为0即可。
若是吼音,则基于修正值对曲数据的与吼音波形的合成比(合成比率)对应的数据值进行修正。
换言之,在气息值比基本气息值大的情况下,CPU5取得对与吼音波形的合成比(合成比率)对应的数据值进行了增大合成比(合成比率)的修正的修正数据值,在气息值不到基本气息值的情况下,CPU5取得对与吼音波形的合成比(合成比率)对应的数据值进行了减小合成比(合成比率)的修正的修正数据值。
此外,在气息值与基本气息值一致的情况下,与抖音时相同,以修正数据值成为曲数据的与吼音波形的合成比(合成比率)对应的数据值本身的方式设定修正值。
若是沙哑音色,则基于修正值对曲数据的与沙哑音色波形的合成比(合成比率)对应的数据值进行修正。
换言之,在气息值比基本气息值大的情况下,CPU5取得对与沙哑音色波形的合成比(合成比率)对应的数据值进行了增大合成比(合成比率)的修正的修正数据值,在气息值不到基本气息值的情况下,CPU5取得对与沙哑音色波形的合成比(合成比率)对应的数据值进行了减小合成比(合成比率)的修正的修正数据值。
此外,在气息值与基本气息值一致的情况下,与抖音时相同,以修正数据值成为曲数据的与沙哑音色波形的合成比(合成比率)对应的数据值本身的方式设定修正值。
而且,在步骤U4中,进行上述那样的修正数据值的制作时,图7所示的流程图的处理结束,返回至图6的流程图的处理。
在步骤MT3中,CPU5生成基于修正数据值的第2音波形数据,将该第2音波形数据输出到音源部8,进行使发音部2进行该音的发音的控制。
如上述那样,基于预先给予的曲数据(MIDI数据)的基本气息值和从气息传感器10取得的气息值,通过进行CPU5取得对曲数据(MIDI数据)的数据值进行了修正的修正数据值的修正数据值取得处理、和基于修正数据值使发音部2发音的发音处理,而成为反映了伴随着演奏者的吹气操作(吐息)的表现力的演奏。
而且,进入到步骤MT4时,CPU5判断从气息传感器10取得的气息值是否比阈值大,在气息值比阈值大的情况下(步骤MT4:是),进一步进入到步骤MT6,判断下一个音的音符开的定时。
而且,在不是音符开的定时的情况下(步骤MT6:否),再次返回至步骤MT2,与刚才相同地实施修正。
换言之,由于再次进行修正连续数据的数据值的处理,因此以连续地时间变化的方式发音的音本身伴有与演奏者的吹气操作相对应的变化,成为反映了演奏者的表现力的演奏。
而且,在步骤MT6为“是”时,为了进行下一个音等的处理,返回至图5的流程图,实施步骤T13以下的处理。
另一方面,在步骤MT4为“否”的情况下,CPU5在步骤MT5中将消音的控制数据(音符关数据)输出到音源部8,进行了使发音部2进行该音的消音的控制后,返回至图5的流程图的处理。
换言之,由于吹气变没所以对音进行消音,再次有了吹气时,为了以没有不协调的感觉的方式进行下一个音等的处理,返回至图5的流程图,实施步骤T13以下的处理。
这样地在第2模式的变形例中,执行对曲数据的演奏数据值(连续数据的抖音、吼音、沙哑音色等演奏的演奏数据值)进行修正的修正处理,依次基于由修正处理修正后的修正数据值生成第2音波形数据,由此,成为反映了吐息的状态的演奏,因此能够进行具有表现力的吐息的练习。
此外,也可以设置第3模式,该第3模式一边基于曲数据的基本气息值和从气息传感器10取得的气息值,对基本的音量等进行修正处理,一边相反地针对颤音、吼音、运舌、抖音、沙哑音色等演奏的奏法,与该奏法的检测或非检测无关地输出根据曲数据所包含的这多个演奏数据值的第3音波形数据。
换言之,也可以设置关于颤音、吼音、运舌、抖音、沙哑音色等演奏的奏法以外的部分,基于基本气息值和从气息传感器10取得的气息值来进行修正处理的第3模式。
此外,第3模式也可以对于上述全部的奏法无需限于输出遵照了曲数据所包含的演奏数据值的第3音波形数据,对于那些奏法中至少一个以上的奏法,输出遵照了曲数据所包含的演奏数据值的第3音波形数据。
该情况下,按照演奏者所进行的选择,CPU5进行选择性地切换“整体练习模式(第1模式)”、“吐息练习模式(第2模式)”、“第3模式”的控制。
然而,在上述内容中对于不在意运指地进行吐息的练习模式进行了说明,但考虑到例如对于初学者来说,也有想不在意吐息地练习运指(演奏键1A的操作)的情况。
因此,也可以设置练习那样的演奏键1A的操作的演奏键练习模式(第4模式)。
该情况下,根据演奏者的选择,为了能够执行演奏键练习模式(第4模式),图4的流程图的步骤S1为否时,如图8所示,进一步追加判断是否是演奏键练习模式(第4模式)的步骤SA1,CPU5判断为演奏键练习模式(第4模式)被选择(步骤SA1:是)时,在步骤SA11中,使从气息传感器10的输入无效,进入到步骤SA12,CPU5执行按照了如图9所示的演奏键练习模式(第4模式)的流程图的处理,CPU5判断为演奏键练习模式(第4模式)没有被选择(步骤SA1:否)时,执行步骤S2的整体练习即可。
此外,该情况下,按照演奏者所进行的选择,CPU5进行选择性地切换“整体练习模式(第1模式)”、”吐息练习模式(第2模式)”、”第3模式”、”演奏键练习模式(第4模式)”的控制。
具体地,边参照图9边对演奏键练习模式(第4模式)进行说明,该情况下,与从气息传感器10取得的气息值无关地,基于曲数据(MIDI数据)和演奏键1A的操作等,CPU5将控制从发音部2的音的发音、消音的控制数据输出到音源部8,进行从发音部2发音的控制、使发音部2消音的控制等。
稍后将更详细地说明,在演奏键练习模式(第4模式)中,进行了遵照了曲数据的第1音符的演奏键1A的操作的情况下,与气息传感器10所进行的吹气操作的检测或非检测无关地,CPU5使音源部8生成遵照了曲数据的第1音符的乐音信号(第2音波形数据),从发音部2输出该第2音波形数据的音,以取代输出基于吹气操作以及演奏键1A的操作生成并要输出的输出预定音波形数据。
此外,即使在演奏键练习模式(第4模式)中,与刚刚说明过的整体练习模式(第1模式)相同,为了引导演奏,CPU5进行在演奏者应操作的演奏键1A的应操作定时使光源部9发光,在应停止演奏键1A的操作的定时停止演奏键1A的发光的控制。
因此,演奏者例如能够不进行吹气操作,专注于演奏键1A的操作地进行练习。
特别是,由于无需进行吹气操作,因此不是将吹口部3含在口中的难以看见演奏键1A的状态,而是演奏者能够以容易看到演奏键1A的姿势拿着电子管乐器100,并进行演奏键练习模式(第4模式)的练习。
这样,在演奏键练习模式(第4模式)中,能够不在意吹气操作,专注于演奏键1A的操作地进行练习,因此能够高效地学会演奏键1A的操作。
另外,如上述那样,用于使本乐器自动演奏的数据,与一口气演奏的区间(吹气操作区间)对应地设置标记(识别符),因此,以演奏键练习模式(第4模式)进行的练习不是以1曲为单位,而是以演奏者设定的吹气操作区间为练习区间进行练习。
换言之,演奏者能够选择并设定曲数据的任意的吹气操作区间,因此,演奏者能够在特别想进行练习的吹气操作区间(例如,连续的2个吹气操作区间、一个吹气操作区间等)集中地练习。
正如之前也接触到的那样,管乐器在一口气演奏的区间(吹气操作区间)中有连续的多个音符的情况很多,因此在吹气操作区间的期间多次操作演奏键1A。
因此,例如,在一个吹气操作区间有连续的3个音符,操作三次演奏键1A的情况下,将该吹气操作区间设定为练习区间时,能够设定练习与该3个音符对应的连续的3次演奏键1A的操作。
以下,参照图9,对选择了“演奏键练习模式(第4模式)”时的处理,详细地进行说明。
“演奏键练习模式(第4模式)”开始后,CPU5在步骤X1中执行将演奏者从存储于ROM6的曲数据中选择的曲数据(MIDI数据)读入到作为工作区发挥功能的RAM7中的处理,进入到下一个步骤X2。
在步骤X2中,CPU5判断是否有演奏者设定为练习区间的曲数据的特定的吹气操作区间,在步骤X2中CPU5判断为有演奏者设定的曲数据的特定的吹气操作区间(步骤X2:是)的情况下,进入到步骤X3,CPU5将曲数据的吹气操作区间中演奏者设定的特定的吹气操作区间设定为练习区间。
此外,在有多个特定的吹气操作区间的情况下,进行连接那些吹气操作区间而设定为一个练习区间的处理。
另一方面,CPU5在步骤X2中判断为没有演奏者设定的曲数据的特定的吹气操作区间(步骤X2:否)的情况下,进入到步骤X4,CPU5将从曲数据的开始到最后、即曲数据的整体设定为练习区间。
此外,遵照了该设定的练习区间内的曲数据的一个以上音符的乐音信号是第2音波形数据。
而且,执行步骤X3或者步骤X4的处理时,进入到步骤X5,CPU5基于曲数据从发音部2开始本乐器以外的其他乐器的部分即伴奏的发音。
具体而言,CPU5根据曲数据,依次将与伴奏对应的音符数据(音符开数据、音符关数据等)、连续数据等控制数据输出到音源部8,使音源部8生成乐音信号(伴奏的音波形数据)并将乐音信号送至发音部2,发音部2进行遵照了乐音信号的发音。
此外,以下省略关于伴奏部分的说明,但在本实施方式中,因演奏者的演奏键1A的操作在中途停止了等而本乐器的演奏停止时,控制为自动演奏的伴奏成为停止状态,对应于演奏键1A的操作的重新开始,接着重新开始伴奏的自动演奏。
开始伴奏的发音(步骤X5)后,进入到步骤X6,CPU5进行设定练习区间中的最初的音(曲数据的第1音符)的处理,接着进入到步骤X7,CPU5监视该设定的音的音符开(发音)的定时的到来。
换言之,CPU5继续判断步骤X7中设定的音的音符开(发音)的定时,在判断为音符开(发音)的定时(步骤X7:是)时,进入到下一个步骤X8。
而且,进入到步骤X8,CPU5执行将对与所设定的音(曲数据的第1音符)对应的演奏键1A进行识别的识别符输出到光源部9的识别符输出处理,光源部9按照该识别符使演奏键1A发光,对演奏者应操作的演奏键1A是多个演奏键1A中的哪个演奏键1A进行引导。
接下来,进入到步骤X9,CPU5判断发光的演奏键1A是否正在被操作。
而且,CPU5判断为发光的演奏键1A正在被操作(步骤X9:是)时,进入到步骤X10,CPU5进行将步骤X6中设定的音(曲数据的第1音符)的发音的控制数据(音符开数据,连续数据)输出到音源部8,从发音部2发出该音的控制。
因此,CPU5进行以下控制:在没有进行遵照了步骤X6中设定的音(曲数据的第1音符)的演奏键1A的操作的情况下,由于不进入到步骤X9的下一个步骤X10,因此在没有进行遵照了曲数据的第1音符的演奏键1A的操作的状态下,即使进行了遵照了第1音符后接着的下一个音的第2音符的演奏键1A的操作,也不从发音部2输出遵照了曲数据的第2音符的下一个第2音波形数据的音。
步骤X10的处理结束后进入到步骤X11,CPU5判断在练习区间中是否有下一个音(第2音符)的数据。
CPU5在步骤X11判断为有下一个音(第2音符)的数据(步骤X11:是)时,进入到步骤X12,CPU5执行设定练习区间中的下一个音(第2音符)的处理,进入到步骤X13。
另一方面,CPU5在步骤X11中判断为没有下一个音的数据(步骤X11:否)时,不进行步骤X12的处理,进入到步骤X13。
进入到步骤X13后,CPU5判断是否是设定的下一个音的音符开(发音)的定时,在判断为是下一个音的音符开(发音)的定时(步骤X13:是)时,进入到步骤X14,CPU5进行将发光中的演奏键1A的音的消音的控制数据(音符关)输出到音源部8,使从发音部2的发音消音,并且,使光源部9停止发光中的演奏键1A的发光的控制,进入到步骤X8,与刚才相同地,进行光源部9使与所设定的下一个音(第2音符)对应的演奏键1A发光的控制。
这样,CPU5前进到基于曲数据使光源部9让演奏键1A中应操作的演奏键1A发光的控制、和基于演奏键1A的操作和曲数据,与气息传感器10的吹气操作的检测或非检测无关地,使发音部2发音的控制。
另一方面,在步骤X13中,在CPU5判断为不是下一个音(第2音符)的音符开(发音)的定时(步骤X13:否)时,进入到步骤X15,判断是否进行了与下一个音(第2音符)对应的演奏键1A的操作。
例如,演奏者长进到熟记演奏键1A的顺序的程度后,有比进行了的音(第2音符)的音符开(发音)的定时稍早地操作下一个演奏键1A的情况。
在这种情况下,也为了不给演奏者带来不协调的感觉,优选使下一个音(第2音符)发音,因此,CPU5进行如下控制:在步骤X15中判断为进行了与下一个音(第2音符)对应的演奏键1A的操作(步骤X15:是)时,进入到步骤X14,与刚才说明过的相同地执行使当前的音消音的处理,并且,进入到步骤X8,使与下一个音(第2音符)对应的演奏键1A发光。
于是,由于与发光的演奏键1A对应的演奏键1A已经正被操作着,因此,CPU5在下一个步骤X9中也判断为“是”,进入到步骤X10,迅速地实施下一个音(第2音符)的发音。
换言之,CPU5进行如下控制:在进行遵照了步骤X6中设定的音(曲数据的第1音符)的演奏键1A的操作,开始从发音部2的发音的情况下,即使遵照了第1音符后接着的下一个音即第2音符的演奏键1A的操作比遵照了曲数据的第2音符的演奏键1A的操作的定时早,也将遵照了曲数据的第2音符的发音的控制数据(音符开数据、连续数据)输出至音源部8,从发音部2输出(发出)该音(遵照了第2音符的下一个第2音波形数据的音)。
此外,在本实施方式中,CPU5即使在比下一个演奏键1A的操作的定时早的定时进行了演奏键1A的操作,在判断结果不是接下来应操作的演奏键1A的情况下(步骤X15:否),也不进入步骤X14,因此从发音部2继续当前的发音,抑制错误的音被发出。
另一方面,CPU5在步骤X15中判断为与没有正在进行下一个音对应的演奏键1A的操作(步骤X15:否)时,进入到步骤X16,CPU5判断是否是练习区间的结束的定时。
而且,在步骤X16中判断为不是练习区间的结束的定时(步骤X16:否)时,再次返回到步骤X13,CPU5进行与刚才说明过的相同的处理,但在步骤X16中判断为是练习区间的结束的定时(步骤X16:是)时,进入到步骤X17,CPU5进行如下控制:将对发光中的演奏键1A的音的消音进行控制的控制数据(音符关)输出至音源部8,使从发音部2的发音消音,并且,使光源部9停止演奏键1A的发光。
此外,对演奏者的演奏键1A的操作结束进行等待后,将控制音的消音的控制数据(音符关)输出至音源部8,从而能够成为没有不协调的感觉的演奏,因此在步骤X17中,优选检测到演奏键1A的操作结束后,CPU5将对音的消音进行控制的控制数据(音符关)输出到音源部8。
这样,检测到演奏键1A的操作结束之后,在CPU5将控制音的消音的控制数据(音符关)输出到音源部8的情况下,在步骤X16的判定为“是”时,CPU5对音源部8输出循环处理数据,从步骤X16的判定为“是”到实际上检测到演奏键1A的操作结束的期间,基于该循环处理数据继续从发音部2的发音即可。
例如,作为循环处理数据,设定练习区间的结束位置近前的音的连续数据的10%左右的范围的数据即可。
但是,在练习区间的结束位置之前是抖音的情况下,优选例如遵照循环处理数据的音波形数据遍及循环区间整体地进行同程度的抖音加工处理,以使进行了抖音加工处理的音波形数据继续从发音部2输出。
而且,步骤X17的处理结束后,返回至图8所示的主程序,整体的处理结束。
其他,本发明并不限于上述的实施方式,在实施阶段在不脱离其要旨的范围内能够进行各种变形。另外,上述的实施方中执行的功能在可能的范围内也可以适当地组合实施。在上述实施方式中包括各种阶段,根据所公开的多个构成要件的适当的组合能够得出各种发明。例如,即使从实施方式所示的全部构成要件删除几个构成要件,只要能得到效果,删除了该构成要件的构成也能作为发明得出。
此外,本说明书中的输出预定音波形数据在优先基础的申请(日本国专利申请特愿2017-49331)中记载为第2音波形数据,本说明书中的第2音波形数据在上述优先基础的申请中记载为第3音波形数据。
Claims (12)
1.一种电子管乐器,其特征在于,具备:
多个演奏键,用于指定音高;
气息传感器,至少对吹气操作进行检测;以及
控制部,
上述控制部选择性地在第1模式和第2模式之间进行切换,
上述第1模式是输出基于上述吹气操作以及上述多个演奏键中至少一个演奏键的操作而生成的第1音波形数据的模式,
上述第2模式是在检测到上述吹气操作的情况下,与上述至少一个演奏键的操作的检测或者非检测无关地,输出基于曲数据以及上述吹气操作的第2音波形数据的模式,
上述吹气操作通过根据上述气息传感器的输出信号取得气息值来进行检测,
上述曲数据包含基本气息值、以及遵照了演奏的奏法的演奏数据值,
上述控制部在上述第2模式被选择时,基于上述基本气息值与由上述气息传感器输出的上述气息值之差,执行对上述演奏数据值进行修正的修正处理,上述第2音波形数据是基于被上述修正处理修正后得到的修正数据值而被生成的。
2.如权利要求1所述的电子管乐器,其特征在于,
在上述修正处理中,在上述演奏数据值是遵照了抖音奏法的演奏数据值的情况下,在上述气息值是上述基本气息值以上的情况下,对上述演奏数据值执行使抖音的深度变深的修正处理,在上述气息值小于上述基本气息值的情况下,对上述演奏数据值执行使抖音的深度变浅的修正处理。
3.如权利要求1所述的电子管乐器,其特征在于,
在上述修正处理中,在上述演奏数据值是遵照了吼音奏法的演奏数据值的情况下,在上述气息值比上述基本气息值大的情况下,对上述演奏数据值执行增大吼音波形的合成比率的修正处理,在上述气息值小于上述基本气息值的情况下,对上述演奏数据值执行减小上述吼音波形的合成比率的修正处理。
4.如权利要求1所述的电子管乐器,其特征在于,
在上述修正处理中,在上述演奏数据值是遵照了沙哑音色奏法的演奏数据值的情况下,在上述气息值比上述基本气息值大的情况下,对上述演奏数据值执行增大沙哑音色波形的合成比率的修正处理,在上述气息值小于上述基本气息值的情况下,对上述演奏数据值执行减小上述沙哑音色波形的合成比率的修正处理。
5.如权利要求1~4中任一项所述的电子管乐器,其特征在于,
上述曲数据包含识别吹气操作区间的识别符,
上述控制部进行如下控制:在上述第2模式被选择时,在由上述识别符识别出的上述吹气操作区间的区间内检测到上述吹气操作,被检测到上述吹气操作的区间内的至少一个以上的上述第2音波形数据被输出之后,在上述吹气操作区间结束之前,上述吹气操作变为非检测,然后,在上述吹气操作被检测到的情况下,使音源部输出在上述区间内未输出的下一个第2音波形数据。
6.如权利要求5所述的电子管乐器,其特征在于,
上述控制部进行如下控制:在上述第2模式被选择时,在越过由上述识别符识别出的上述吹气操作区间后检测到上述吹气操作的情况下,在上述吹气操作区间经过后,使音源部输出基于上述吹气操作区间的结束位置附近的上述曲数据的音波形数据。
7.如权利要求1所述的电子管乐器,其特征在于,
上述控制部选择性地切换第3模式,该第3模式是在由上述气息传感器检测到上述吹气操作的情况下,对于颤音、吼音、运舌、抖音、沙哑音色的至少一个以上的演奏的奏法,与该奏法的检测或非检测无关地,输出根据上述曲数据所包含的多个演奏数据值的第3音波形数据的模式。
8.如权利要求7所述的电子管乐器,其特征在于,
上述控制部选择性地切换第4模式,该第4模式是在上述多个演奏键中的至少一个演奏键的操作是基于上述曲数据应指定的演奏键的操作的情况下,与上述气息传感器所进行的上述吹气操作的检测或非检测无关地,输出基于上述曲数据以及上述至少一个演奏键的操作的第2音波形数据的模式。
9.如权利要求8所述的电子管乐器,其特征在于,
在上述第4模式被选择时,上述控制部执行识别符输出处理,该识别符输出处理输出对基于上述曲数据而应指定的上述演奏键进行识别的识别符。
10.一种电子管乐器的控制方法,其特征在于,
使具备用于指定音高的多个演奏键和至少检测吹气操作的气息传感器的电子管乐器选择性地在第1模式和第2模式之间进行切换,
上述第1模式是输出基于上述吹气操作以及上述多个演奏键中至少一个演奏键的操作而生成的第1音波形数据的模式,上述第2模式是在检测到上述吹气操作的情况下,与上述至少一个演奏键的操作的检测或非检测无关地,输出基于曲数据以及上述吹气操作的第2音波形数据的模式,
上述吹气操作通过根据上述气息传感器的输出信号取得气息值来进行检测,
上述曲数据包含基本气息值、以及遵照了演奏的奏法的演奏数据值,
在上述控制方法中,在上述第2模式被选择时,基于上述基本气息值与由上述气息传感器输出的上述气息值之差,执行对上述演奏数据值进行修正的修正处理,上述第2音波形数据是基于被上述修正处理修正后得到的修正数据值而被生成的。
11.一种记录介质,记录有程序,其特征在于,
该程序使具备用于指定音高的多个演奏键和至少检测吹气操作的气息传感器的电子管乐器选择性地在第1模式和第2模式之间进行切换,
上述第1模式是输出基于上述吹气操作以及上述多个演奏键中至少一个演奏键的操作而生成的第1音波形数据的模式,上述第2模式是在检测到上述吹气操作的情况下,与上述至少一个演奏键的操作的检测或非检测无关地,输出基于曲数据以及上述吹气操作的第2音波形数据的模式,
上述吹气操作通过根据上述气息传感器的输出信号取得气息值来进行检测,
上述曲数据包含基本气息值、以及遵照了演奏的奏法的演奏数据值,
在上述第2模式被选择时,基于上述基本气息值与由上述气息传感器输出的上述气息值之差,执行对上述演奏数据值进行修正的修正处理,上述第2音波形数据是基于被上述修正处理修正后得到的修正数据值而被生成的。
12.一种电子管乐器,其特征在于,具备:
多个演奏键,用于指定音高;
气息传感器,至少对吹气操作进行检测;以及
控制部,
上述控制部选择性地在第1模式和第2模式之间进行切换,
上述第1模式是输出基于上述吹气操作以及上述多个演奏键中至少一个演奏键的操作而生成的第1音波形数据的模式,
上述第2模式是在检测到上述至少一个演奏键的操作的情况下,与上述吹气操作的检测或非检测无关地,输出基于曲数据以及上述至少一个演奏键的操作的第2音波形数据的模式,
上述吹气操作通过根据上述气息传感器的输出信号取得气息值来进行检测,
上述曲数据包含基本气息值、以及遵照了演奏的奏法的演奏数据值,
上述控制部在上述第2模式被选择时,基于上述基本气息值与由上述气息传感器输出的上述气息值之差,执行对上述演奏数据值进行修正的修正处理,上述第2音波形数据是基于被上述修正处理修正后得到的修正数据值而被生成的。
Applications Claiming Priority (8)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017049331 | 2017-03-15 | ||
JP2017-050057 | 2017-03-15 | ||
JP2017050057A JP6801533B2 (ja) | 2017-03-15 | 2017-03-15 | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム |
JP2017-049331 | 2017-03-15 | ||
JP2017050121A JP6816581B2 (ja) | 2017-03-15 | 2017-03-15 | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム |
JP2017-050121 | 2017-03-15 | ||
JP2017-186499 | 2017-09-27 | ||
JP2017186499A JP7192203B2 (ja) | 2017-03-15 | 2017-09-27 | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108630176A CN108630176A (zh) | 2018-10-09 |
CN108630176B true CN108630176B (zh) | 2023-04-07 |
Family
ID=63520242
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810213658.9A Active CN108630176B (zh) | 2017-03-15 | 2018-03-15 | 电子管乐器及其控制方法以及记录介质 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10360884B2 (zh) |
CN (1) | CN108630176B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2540760B (en) | 2015-07-23 | 2018-01-03 | Audio Inventions Ltd | Apparatus for a reed instrument |
GB2559135B (en) | 2017-01-25 | 2022-05-18 | Audio Inventions Ltd | Transducer apparatus for an edge-blown aerophone and an edge-blown aerophone having the transducer apparatus |
GB2559144A (en) | 2017-01-25 | 2018-08-01 | Audio Inventions Ltd | Transducer apparatus for a labrasone and a labrasone having the transducer apparatus |
US10360884B2 (en) * | 2017-03-15 | 2019-07-23 | Casio Computer Co., Ltd. | Electronic wind instrument, method of controlling electronic wind instrument, and storage medium storing program for electronic wind instrument |
JP6760222B2 (ja) * | 2017-07-13 | 2020-09-23 | カシオ計算機株式会社 | 検出装置、電子楽器、検出方法及び制御プログラム |
US10403247B2 (en) * | 2017-10-25 | 2019-09-03 | Sabre Music Technology | Sensor and controller for wind instruments |
US11984103B2 (en) * | 2018-05-25 | 2024-05-14 | Roland Corporation | Displacement amount detecting apparatus and electronic wind instrument |
CN112204650B (zh) * | 2018-05-25 | 2024-06-14 | 罗兰株式会社 | 电子吹奏乐器(电子乐器)以及电子乐器的制造方法 |
WO2019224996A1 (ja) * | 2018-05-25 | 2019-11-28 | ローランド株式会社 | 電子吹奏楽器 |
JP7346807B2 (ja) * | 2018-10-17 | 2023-09-20 | カシオ計算機株式会社 | 電子鍵盤楽器、方法およびプログラム |
JP6941303B2 (ja) * | 2019-05-24 | 2021-09-29 | カシオ計算機株式会社 | 電子管楽器及び楽音生成装置、楽音生成方法、プログラム |
JP7262347B2 (ja) * | 2019-09-06 | 2023-04-21 | ローランド株式会社 | 電子吹奏楽器 |
JP7140083B2 (ja) * | 2019-09-20 | 2022-09-21 | カシオ計算機株式会社 | 電子管楽器、電子管楽器の制御方法及びプログラム |
JP7432347B2 (ja) * | 2019-12-04 | 2024-02-16 | ローランド株式会社 | 楽音制御装置、及び楽音制御方法 |
CN113012668B (zh) * | 2019-12-19 | 2023-12-29 | 雅马哈株式会社 | 键盘装置及发音控制方法 |
JP7419880B2 (ja) * | 2020-03-02 | 2024-01-23 | ヤマハ株式会社 | 電子吹奏楽器 |
JP7435122B2 (ja) * | 2020-03-25 | 2024-02-21 | ヤマハ株式会社 | 電子吹奏楽器 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651772A (ja) * | 1992-07-31 | 1994-02-25 | Kawai Musical Instr Mfg Co Ltd | 電子鍵盤楽器 |
JP2001159892A (ja) * | 1999-08-09 | 2001-06-12 | Yamaha Corp | 演奏データ作成装置及び記録媒体 |
JP2004101979A (ja) * | 2002-09-11 | 2004-04-02 | Yamaha Corp | 電子楽器 |
JP2004109508A (ja) * | 2002-09-18 | 2004-04-08 | Casio Comput Co Ltd | 演奏ガイド装置、演奏ガイドデータ生成装置、及びプログラム |
JP2005173631A (ja) * | 1999-08-09 | 2005-06-30 | Yamaha Corp | 演奏データ作成装置 |
JP2007065198A (ja) * | 2005-08-30 | 2007-03-15 | Yamaha Corp | 自動演奏装置 |
JP2007147711A (ja) * | 2005-11-24 | 2007-06-14 | Yamaha Corp | 電子楽器および電子楽器に適用されるコンピュータプログラム |
JP2009180894A (ja) * | 2008-01-30 | 2009-08-13 | Yamaha Corp | 楽器演奏教習装置 |
CN104254887A (zh) * | 2012-09-24 | 2014-12-31 | 希特兰布公司 | 用于评估卡拉ok用户的方法和系统 |
CN105989820A (zh) * | 2015-03-19 | 2016-10-05 | 卡西欧计算机株式会社 | 电子管乐器 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0752349B2 (ja) * | 1989-01-04 | 1995-06-05 | ヤマハ株式会社 | 電子楽器 |
US6002080A (en) * | 1997-06-17 | 1999-12-14 | Yahama Corporation | Electronic wind instrument capable of diversified performance expression |
JP3360579B2 (ja) * | 1997-09-12 | 2002-12-24 | ヤマハ株式会社 | 電子楽器 |
JP2005049439A (ja) * | 2003-07-30 | 2005-02-24 | Yamaha Corp | 電子楽器 |
JP4433065B2 (ja) | 2003-07-30 | 2010-03-17 | ヤマハ株式会社 | 楽器 |
JP4448378B2 (ja) * | 2003-07-30 | 2010-04-07 | ヤマハ株式会社 | 電子管楽器 |
JP4258499B2 (ja) * | 2005-07-25 | 2009-04-30 | ヤマハ株式会社 | 吹奏電子楽器の音源制御装置とプログラム |
JP4258498B2 (ja) * | 2005-07-25 | 2009-04-30 | ヤマハ株式会社 | 吹奏電子楽器の音源制御装置とプログラム |
JP4506619B2 (ja) * | 2005-08-30 | 2010-07-21 | ヤマハ株式会社 | 演奏アシスト装置 |
JP4462180B2 (ja) * | 2005-12-21 | 2010-05-12 | ヤマハ株式会社 | 電子管楽器及びそのプログラム |
JP5169045B2 (ja) * | 2007-07-17 | 2013-03-27 | ヤマハ株式会社 | 管楽器 |
JP5326235B2 (ja) * | 2007-07-17 | 2013-10-30 | ヤマハ株式会社 | 管楽器 |
JP6435644B2 (ja) * | 2014-05-29 | 2018-12-12 | カシオ計算機株式会社 | 電子楽器、発音制御方法及びプログラム |
JP6609949B2 (ja) * | 2015-03-19 | 2019-11-27 | カシオ計算機株式会社 | 電子管楽器 |
JP6740832B2 (ja) * | 2016-09-15 | 2020-08-19 | カシオ計算機株式会社 | 電子楽器用リード及びその電子楽器用リードを備えた電子楽器 |
US10360884B2 (en) * | 2017-03-15 | 2019-07-23 | Casio Computer Co., Ltd. | Electronic wind instrument, method of controlling electronic wind instrument, and storage medium storing program for electronic wind instrument |
-
2018
- 2018-03-13 US US15/919,899 patent/US10360884B2/en active Active
- 2018-03-15 CN CN201810213658.9A patent/CN108630176B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0651772A (ja) * | 1992-07-31 | 1994-02-25 | Kawai Musical Instr Mfg Co Ltd | 電子鍵盤楽器 |
JP2001159892A (ja) * | 1999-08-09 | 2001-06-12 | Yamaha Corp | 演奏データ作成装置及び記録媒体 |
JP2005173631A (ja) * | 1999-08-09 | 2005-06-30 | Yamaha Corp | 演奏データ作成装置 |
JP2004101979A (ja) * | 2002-09-11 | 2004-04-02 | Yamaha Corp | 電子楽器 |
JP2004109508A (ja) * | 2002-09-18 | 2004-04-08 | Casio Comput Co Ltd | 演奏ガイド装置、演奏ガイドデータ生成装置、及びプログラム |
JP2007065198A (ja) * | 2005-08-30 | 2007-03-15 | Yamaha Corp | 自動演奏装置 |
JP2007147711A (ja) * | 2005-11-24 | 2007-06-14 | Yamaha Corp | 電子楽器および電子楽器に適用されるコンピュータプログラム |
JP2009180894A (ja) * | 2008-01-30 | 2009-08-13 | Yamaha Corp | 楽器演奏教習装置 |
CN104254887A (zh) * | 2012-09-24 | 2014-12-31 | 希特兰布公司 | 用于评估卡拉ok用户的方法和系统 |
CN105989820A (zh) * | 2015-03-19 | 2016-10-05 | 卡西欧计算机株式会社 | 电子管乐器 |
Non-Patent Citations (1)
Title |
---|
中国民族吹管乐器演奏技法分析;盛存和;《科技展望》;20160630(第18期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108630176A (zh) | 2018-10-09 |
US20180268791A1 (en) | 2018-09-20 |
US10360884B2 (en) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108630176B (zh) | 电子管乐器及其控制方法以及记录介质 | |
JP2004264501A (ja) | 鍵盤楽器 | |
JP2006163435A (ja) | 楽音制御装置 | |
JP7192203B2 (ja) | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム | |
JP7262347B2 (ja) | 電子吹奏楽器 | |
JP5188863B2 (ja) | 電子楽器 | |
JP7140083B2 (ja) | 電子管楽器、電子管楽器の制御方法及びプログラム | |
JP5897805B2 (ja) | 楽音制御装置 | |
JP7346807B2 (ja) | 電子鍵盤楽器、方法およびプログラム | |
WO2023058173A1 (ja) | 音制御装置およびその制御方法、電子楽器、プログラム | |
JP7347619B2 (ja) | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム | |
JP5412766B2 (ja) | 電子楽器及びプログラム | |
JP6801533B2 (ja) | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム | |
JP6816581B2 (ja) | 電子管楽器、その電子管楽器の制御方法及びその電子管楽器用のプログラム | |
JP4419808B2 (ja) | 電子打楽器 | |
JP4978176B2 (ja) | 演奏装置、演奏実現方法およびプログラム | |
JP5560574B2 (ja) | 電子楽器および自動演奏プログラム | |
JP5742592B2 (ja) | 楽音生成装置、楽音生成プログラム及び電子楽器 | |
JP5827484B2 (ja) | 楽音制御装置 | |
WO2023175844A1 (ja) | 電子管楽器及び電子管楽器の制御方法 | |
CN112634847A (zh) | 电子乐器、控制方法以及存储介质 | |
JP2022140812A (ja) | 電子楽器、方法及びプログラム | |
JP2685044B2 (ja) | 電子楽器 | |
JP2010190942A (ja) | 電子楽器および電子楽器のプログラム | |
JP4978170B2 (ja) | 演奏装置、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |