CN110720122A - 音发生装置及方法 - Google Patents

音发生装置及方法 Download PDF

Info

Publication number
CN110720122A
CN110720122A CN201780091661.1A CN201780091661A CN110720122A CN 110720122 A CN110720122 A CN 110720122A CN 201780091661 A CN201780091661 A CN 201780091661A CN 110720122 A CN110720122 A CN 110720122A
Authority
CN
China
Prior art keywords
singing
phrase
sound
data
pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201780091661.1A
Other languages
English (en)
Other versions
CN110720122B (zh
Inventor
柏濑一辉
滨野桂三
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN110720122A publication Critical patent/CN110720122A/zh
Application granted granted Critical
Publication of CN110720122B publication Critical patent/CN110720122B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

提供能够缓和切换发音区间时的不适感的音发生装置。CPU(10)如果检测到指定开始操作(前进操作件34或者返回操作件(35)的按下操作),则停止正在输出的音,将发音对象乐句设为未确定状态,并且自动生成哑音而开始该哑音的输出。然后,CPU(10)如果检测到指定结束操作(前进操作件(34)或者返回操作件(35)的释放操作),则确定下一个发音对象乐句。例如CPU(10)在检测到前进操作件(34)的按下操作后检测到释放操作的情况下,将当前的乐句的后1个乐句确定为发音对象乐句,停止哑音。

Description

音发生装置及方法
技术领域
本发明涉及基于歌唱用数据发出歌唱音的音发生装置及方法。
背景技术
已知使用语音合成技术,基于歌唱用数据发出歌唱音音发生装置。例如,下述专利文献1的装置使用户将多个种类的合成信息(音位信息和韵律信息)针对每个音符而输入,实时地进行歌唱合成。此外,如果在音位信息和韵律信息的输入定时存在偏差,则会对用户带来不适感,因此专利文献1的装置在从最开始的合成信息的输入起至与最开始的合成信息相对应的语音信号的输出开始为止的期间,通过发出哑音(dummy sound),从而缓和不适感。由此,能够缓和按照决定的顺序1个音节1个音节地歌唱时的不适感。
专利文献1:日本专利第6044284号公报
发明内容
另外,通常,歌曲的歌词是具有多个乐句(Phrase)等有集合体的单位(区间)而构成的。因此,可想到在某个乐句的歌唱中途,演奏者希望向下一个乐句的歌唱转移的情况。假设构成为能够进行乐句的切换的情况下,需要进行确定切换目标的乐句,使发音位置移动至切换后的乐句内的音节等的处理。如果为了确定切换目标的乐句、进行实际的切换处理而需要时间,则在每次乐句切换时基于原本的歌唱指示的音节的发音被中断,有可能带来不适感。在伴奏音也一并播放时变得特别明显。
本发明的目的在于,提供能够缓和发音区间的切换时的不适感的音发生装置及方法。
为了达到上述目的,根据本发明,提供一种音发生装置,其具有:数据取得部,其取得歌唱用数据,该歌唱用数据包含成为发音的基础的音节信息,由连续的多个区间构成;检测部,其对区间指定操作进行检测,该区间指定操作对由所述数据取得部取得的歌唱用数据中的下一个发音对象区间进行指定;以及发音控制部,其与由所述检测部检测到区间指定操作相应地,对与基于歌唱的指示的歌唱音不同的规定的歌唱音进行发音。
此外,上述括弧内的标号为例示。
发明的效果
根据本发明,能够缓和发音区间的切换时的不适感。
附图说明
图1是音发生装置的示意图。
图2是电子乐器的框图。
图3是表示显示单元的主要部的图。
图4是表示进行演奏的情况下的处理的流程的一个例子的流程图。
图5是表示歌词文本数据的一个例子的图。
图6是表示语音片段数据的种类的一个例子的图。
图7是表示进行演奏的情况下的处理的流程的一个例子的流程图的一部分。
具体实施方式
下面,参照附图对本发明的实施方式进行说明。
(第1实施方式)
图1是本发明的第1实施方式所涉及的音发生装置的示意图。该音发生装置作为一个例子而构成为键盘乐器即电子乐器100,具有主体部30及琴颈部31。主体部30具有:第1面30a、第2面30b、第3面30c、第4面30d。第1面30a是配置由多个键构成的键盘部KB的键盘配置面。第2面30b为背面。在第2面30b设置钩件36、37。在钩件36、37之间能够架设未图示的背带,演奏者通常将背带挂在肩上进行键盘部KB的操作等演奏。因此,在挂肩使用时,特别在键盘部KB的音阶方向(键的排列方向)成为左右方向时,第1面30a及键盘部KB朝向聆听者侧,第3面30c、第4面30d分别大致朝向下方、上方。琴颈部31从主体部30的侧部延伸设置。在琴颈部31配置以前进操作件34、返回操作件35为首的各种操作件。在主体部30的第4面30d配置由液晶等构成的显示单元33。
电子乐器100是与向演奏操作件的操作相应地进行歌唱模拟的乐器。在这里,歌唱模拟是指通过歌唱合成而输出对人的声音进行模拟的语音。键盘部KB的各键是白键、黑键按照音高顺序排列,各键分别与不同的音高相关联。在演奏电子乐器100的情况下,用户按下键盘部KB的期望的键。电子乐器100对由用户操作的键进行检测,发出与被操作的键相对应的音高的歌唱音。此外,所发出的歌唱音的音节的顺序是预先规定的。
图2是电子乐器100的框图。电子乐器100具有:CPU(Central Processing Unit)10、计时器11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、数据存储部14、演奏操作件15、其他操作件16、参数值设定操作件17、显示单元33、音源19、效果电路20、声音系统21、通信I/F(Interface)以及总线23。
CPU 10是进行电子乐器100整体的控制的中央处理装置。计时器11是测量时间的模块。ROM 12是对控制程序、各种数据等进行储存的非易失性的存储器。RAM 13是作为CPU10的工作区域及各种缓冲器等所使用的易失性的存储器。显示单元33是液晶显示器面板、有机EL(Electro-Luminescence)面板等显示模块。显示单元33显示电子乐器100的动作状态、各种设定画面、针对用户的消息等。
演奏操作件15是主要接受对音高进行指定的演奏操作的模块。在本实施方式中,键盘部KB、前进操作件34、返回操作件35包含于演奏操作件15。作为一个例子,在演奏操作件15为键盘的情况下,演奏操作件15输出基于与各键对应的传感器的开/关的音符开/音符关、按键的强度(速度、击键力度)等演奏信息。该演奏信息也可以是MIDI(musicalinstrument digital interface,乐器的数字化接口)消息形式。
其他操作件16例如是用于进行与电子乐器100相关的设定等演奏以外的设定的操作按钮或操作旋钮等操作模块。参数值设定操作件17是主要用于对与歌唱音的属性相关的参数进行设定的操作按钮或操作旋钮等操作模块。作为该参数,例如有和声(Harmonics)、亮度(Brightness)、共鸣(Resonance)、性别要素(Gender Factor)等。和声是对在声音中包含的泛音成分的平衡进行设定的参数。亮度是对声音的明暗进行设定的参数,给出音调变化。共鸣是指对歌唱语音、乐器声的音色、强弱进行设定的参数。性别要素是指对共振峰进行设定的参数,使声音的粗细、质感进行女性化或者男性化的变化。外部存储装置3例如是与电子乐器100连接的外部设备,例如是对语音数据进行存储的装置。通信I/F 22是与外部设备进行通信的通信模块。总线23进行电子乐器100中的各部之间的数据传输。
数据存储部14对歌唱用数据14a进行储存。歌唱用数据14a包含歌词文本数据、音位信息数据库等。歌词文本数据是记述歌词的数据。在歌词文本数据中,每个歌曲的歌词以音节为单位被划分而记述。即,歌词文本数据具有将歌词按照音节进行划分的字符信息,该字符信息也是与音节相对应的显示用的信息。在这里,音节是指与1次演奏操作相应地输出的音的集合体。音位信息数据库是对语音片段数据(音节信息)进行储存的数据库。语音片段数据是表示语音的波形的数据,例如作为波形数据而包含语音片段的采样序列的频谱数据。另外,语音片段数据包含表示语音片段的波形的音高的片段音高数据。歌词文本数据、语音片段数据也可以分别通过数据库进行管理。
音源19是具有多个发音通道的模块。在音源19中,在CPU 10的控制下,与用户的演奏相应地分配有1个发音通道。在发出歌唱音的情况下,音源19在所分配的发音通道中,从数据存储部14读取与演奏对应的语音片段数据而生成歌唱音数据。效果电路20对由音源19生成的歌唱音数据应用通过参数值设定操作件17指定的音响效果。声音系统21利用数字/模拟变换器将由效果电路20处理后的歌唱音数据变换为模拟信号。并且,声音系统21将变换为模拟信号的歌唱音放大,从扬声器等输出。
图3是表示显示单元33的主要部的图。显示单元33作为显示区域而具有第1主区域41、第2主区域42、第1副区域43、第2副区域44。整体的显示区域成为2行(2段)结构,第1主区域41及第1副区域43配置于第1行(上段),第2主区域42及第2副区域44配置于第2行(下段)。在主区域41、42中,分别沿显示单元33的长边方向直列地配置有多个显示框45(45-1、45-2、45-3···)。将图3的左端的显示框45-1作为开头,与音节相对应的文字按照发音预先确定顺序进行显示。主区域41、42主要用于歌词显示。
接下来,对关注歌唱顺序及歌词显示的动作进行说明。首先,歌唱用数据14a所包含的歌词文本数据,至少包含与选择曲相对应的多个各音节所关联的文字信息。歌词文本数据是用于由歌唱部(音源19、效果电路20及声音系统21)进行歌唱的数据。歌词文本数据预先被分为连续的多个区间,将分割的各区间称为“乐句”。乐句是具有某种集合体的单位,是以用户容易识别的意图划分而成的,但区间的定义并不限定于此。CPU 10如果对歌曲进行了选择,则以分为多个乐句的状态取得。在乐句中含有大于或等于1个音节和与该音节相对应的文字信息。
如果电子乐器100启动,则CPU 10使与选择曲相对应的多个乐句中的起始的乐句所对应的文字信息显示于显示单元33的第1主区域41(图3)。此时,第1乐句的起始的文字显示于左端的显示框45-1,以在第1主区域41能够显示的数对文字进行显示。关于第2乐句,以在第2主区域42能够显示的数对文字进行显示。键盘部KB起到作为取得歌唱的指示的指示取得部的作用。CPU 10与通过键盘部KB的操作等而取得歌唱的指示相应地,使歌唱部对接下来要歌唱的音节进行歌唱,并且使显示于第1主区域41的文字的显示随着音节的行进而行进。文字显示的前进方向为图3的左方向,最初没有显示完的文字与歌唱的行进相应地从右端的显示框45进行显示。光标位置对接下来要歌唱的音节进行显示,指示出与显示于第1主区域41的显示框45-1的文字相对应的音节。与键盘部KB的操作相应地,对显示于显示单元33的歌词进行更新。
此外,1个文字和1个音节不是必须对应的。例如,具有浊音点的“だ”(da)是“た”(ta)和“"”这2个文字与1个音节相对应。另外,例如在英语的歌词为“september”的情况下,成为“sep”、“tem”、“ber这3个音节。“sep”为1个音节,但“s”、“e”、“p”这3个文字与1个音节相对应。文字显示的前进只是为音节单位,因此在“だ”的情况下通过歌唱而行进2文字。如上所述,歌词也可以不限于日语而为其他语言。
在成为向第1主区域41的显示对象的乐句的全部音节发音完成的情况下,CPU 10使属于成为向第1主区域41的显示对象的乐句的下一个乐句的文字信息显示于第1主区域41,使属于成为向第2主区域42的显示对象的乐句的下一个乐句的文字信息显示于第2主区域42。此外,在不存在成为向第2主区域42的显示对象的乐句的下一个乐句的情况下,向第2主区域42显示的文字消失(全部显示框45为空白)。
图1所示的前进操作件34是用于以乐句单位将显示提前的操作件。另外,将前进操作件34按下后释放的操作设为乐句前进操作的一个例子。返回操作件35是用于以乐句单位将显示推迟的操作件。将返回操作件35按下后释放的操作设为乐句返回操作的一个例子。通过前进操作件34实现的乐句前进操作、通过返回操作件35实现的乐句返回操作相当于对下一个发音对象乐句(发音对象区间)进行指定的乐句指定操作(区间指定操作)。
CPU 10如果检测到乐句指定操作,则确定下一个发音对象乐句。例如CPU 10在检测到前进操作件34的按下操作后,如果检测到前进操作件34的释放操作,则将当前的1个乐句后的乐句确定为发音对象乐句。另外,在检测到返回操作件35的按下操作后,如果检测到返回操作件35的释放操作,则将当前的1个乐句前的乐句确定为发音对象乐句。前进操作件34的按下操作、返回操作件35的按下操作成为乐句指定操作中的指定开始操作。前进操作件34的释放操作、返回操作件35的释放操作成为乐句指定操作中的指定结束操作。
与发音对象乐句的确定处理联动地,CPU 10以下述方式执行歌词显示处理。该歌词显示处理通过未图示的另外的流程图而执行。首先,CPU 10如果检测到乐句前进操作,则执行乐句显示的提前处理,由此将确定出的发音对象乐句显示于第1主区域41。例如CPU 10使至此为止显示于第2主区域42的文字列显示于第1主区域41,并且使再下一个乐句的文字列显示于第2主区域42。此外,在不存在成为向第2主区域42的显示对象的乐句的下一个乐句的情况下,向第2主区域42显示的文字消失(全部显示框45为空白)。另一方面,CPU 10如果检测到乐句返回操作,则执行乐句显示的推迟处理,由此将确定出的发音对象乐句显示于第1主区域41。例如CPU 10使属于成为向第1主区域41的显示对象的乐句紧之前的乐句的文字信息显示于第1主区域41,使属于成为向第2主区域42的显示对象的乐句仅之前的乐句的文字信息显示于第2主区域42。
另外,有时直至确定发音对象乐句为止,需要用户可识别程度的时间。由于直至发音对象乐句确定为止无法对下一个音节进行发音,因此有可能产生不适感。因此在本实施方式中,CPU 10与检测到乐句前进操作或者返回操作(表示指定开始的区间指定操作)相应地,开始哑音(规定的歌唱音)的发音,至少直至确定下一个发音对象乐句为止继续该哑音。哑音是通过歌唱合成产生的“噜(lu)”等的歌唱音,其种类不限,成为其发音的基础的音节信息预先储存于ROM 12。此外,成为哑音的发音的基础的音节信息也可以随附于歌唱用数据14a。另外,也可以在歌唱用数据14a中,使哑音用的音节信息随附于每个乐句,生成与当前的发音对象乐句或者下一个发音对象乐句相对应的哑音。另外,也可以储存有多个成为哑音的发音的基础的音节信息,基于刚刚之前发音的歌唱音而生成哑音。
图4是表示进行通过电子乐器100的演奏的情况下的处理的流程的一个例子的流程图。在这里,对由用户进行演奏曲的选择和选择出的曲的演奏的情况下的处理进行说明。另外,为了简化说明,说明即使在同时操作了多个键的情况下,也仅输出单音的情况。在该情况下,可以仅对同时操作的键的音高中的最高的音高进行处理,也可以仅对最低的音高进行处理。此外,以下进行说明的处理例如是通过由CPU 10执行在ROM 12或RAM 13中存储的程序而实现的。在图4所示的处理中,CPU 10起到作为数据取得部、检测部、发音控制部、确定部的作用。
如果电源接通,则CPU 10等待从用户接受对要演奏的歌曲进行选择的操作(步骤S101)。此外,在经过一定时间仍没有选择曲的操作的情况下,CPU 10也可以判断为选择了默认设定的歌曲。如果CPU 10接受到歌曲的选择,则读取所选择的歌曲的歌唱用数据14a的歌词文本数据。并且,CPU 10将光标位置设定于在歌词文本数据中记述的开头的音节处(步骤S102)。在这里,光标是指表示下一个要发音的音节的位置的虚拟的指示符。接着,CPU 10判定是否检测出基于键盘部KB的操作的音符开(步骤S103)。CPU 10在未检测出音符开的情况下,判断是否检测出音符关(步骤S109)。另一方面,在检测出音符开的情况下,即,检测出新的按键动作的情况下,如果正在输出音,则CPU 10停止该音的输出(步骤S104)。在该情况下的音中也可包含哑音。接下来CPU 10对下一个发音对象乐句是否成为确定状态进行判别(步骤S105)。在通常的与歌唱指示(音符开)的取得相应地使歌唱音节依次前进的阶段中,发音对象乐句成为确定状态。因此在该情况下,CPU 10执行发出与音符开相对应的歌唱音的输出音生成处理(步骤S107)。
对该输出音生成处理进行说明。CPU 10首先读取与光标位置相对应的音节的语音片段数据(波形数据),以与音符开相对应的音高,将读取的语音片段数据所表示的波形的音输出。具体地说,CPU 10求出语音片段数据所包含的片段音高数据所表示的音高和与所操作的键相对应的音高的差分,使波形数据所表示的频谱分布沿频率轴向移动与该差分相当的频率。由此,电子乐器100能够以与所操作的键相对应的音高输出歌唱音。接下来,CPU10对光标位置(读取位置)进行更新(步骤S108),使处理进入步骤S109。
在这里,使用具体例对步骤S107、S108的处理所涉及的光标位置的决定和歌唱音的发音,使用具体例进行说明。首先,对光标位置的更新进行说明。图5是表示歌词文本数据的一个例子的图。在图5的例子中,在歌词文本数据中记述有5个音节c1~c5的歌词。各字“は(ha)”、“る(ru)”、“よ(yo)”、“こ(ko)”、“い(yi)”表示日语的平假名的1个字,各字与1个音节相对应。CPU 10以音节单为位对光标位置进行更新。例如,在光标位于音节c3的情况下,从数据存储部14读取与“よ(yo)”相对应的语音片段数据,发出“よ(yo)”的歌唱音。如果“よ(yo)”的发音结束,则CPU 10使光标位置移动至下一个音节c4。如上所述,CPU 10与音符开相应地使光标位置依次移动至下一个音节。
接下来,对歌唱音的发音进行说明。图6是表示语音片段数据的种类的一个例子的图。CPU 10为了发出与光标位置相对应的音节,从音位信息数据库提取与音节相对应的语音片段数据。在语音片段数据中,存在音素链数据和正常部分数据这2种。音素链数据是指表示“从无音(#)到辅音”、“从辅音到元音”、“从元音到(下一个音节的)辅音或元音”等发音变化时的语音片段的数据。正常部分数据是表示元音的发音持续时的语音片段的数据。例如,在光标位置设定为音节c1的“は(ha)”的情况下,音源19选择与“无音→辅音h”相对应的语音链数据“#-h”、与“辅音h→元音a”相对应的语音链数据“h-a”、以及与“元音a”相对应的正常部分数据“a”。而且,如果开始演奏并检测到按键,则CPU 10将基于语音链数据“#-h”、语音链数据“h-a”、正常部分数据“a”的歌唱音,按照与所操作的键相对应的音高、与操作相对应的击键力度进行输出。通过设为上述方式,执行光标位置的决定和歌唱音的发音。
另一方面,在步骤S105的判别的结果为下一个发音对象乐句为未确定状态的情况下,CPU 10以在步骤S103中检测到的音符开的音高生成哑音的输出音,输出哑音。在这里,在后面记述的步骤S115中,基于指定开始操作已经输出了哑音。因此,在正在输出的哑音的音高和在步骤S103中检测到的音符开的音高存在差异的情况下,CPU 10以将正在输出的哑音修正为在步骤S103中检测到的音符开的音高的方式生成哑音的输出音。因此,在输出哑音后,直至下一个乐句确定为止,演奏者能够通过按键而修正哑音的音高。然后,进入步骤S109。
在图4的步骤S109中没有检测到音符关的情况下,CPU 10使处理进入步骤S112。另一方面,在检测到音符关的情况下,CPU 10对下一个发音对象乐句是否成为确定状态进行判别(步骤S110)。在通常的与歌唱指示(音符开)的取得相应地使歌唱音节依次前进的阶段中,发音对象乐句成为确定状态。因此在该情况下,CPU 10如果正在输出音,则停止该音的输出(步骤S111),使处理进入步骤S112。在步骤S110的判别的结果为下一个发音对象乐句为未确定状态的情况下,CPU 10使处理进入步骤S112。在步骤S112中,CPU 10对是否检测到指定开始操作(前进操作件34或者返回操作件35的按下操作)进行判别。而且在没有检测到指定开始操作的情况下,CPU 10对是否检测到指定结束操作(前进操作件34或者返回操作件35的释放操作)进行判别(步骤S116)。而且在没有检测到指定结束操作的情况下,CPU 10使处理进入步骤S121。
在步骤S112的判别的结果为检测到指定开始操作的情况下,CPU 10如果正在输出音,则停止该音的输出(步骤S113),将发音对象乐句设为未确定状态(步骤S114)。此外,CPU10例如通过在规定的标志设定0、1等,从而对发音对象乐句的未确定状态、确定状态进行管理。接下来,CPU 10自动生成哑音,开始哑音的输出(步骤S115))。由此,与指定开始操作相应地开始哑音的发音。然后,处理进入步骤S116。
在步骤S116的判别的结果为检测到指定结束操作的情况下,CPU 10基于在步骤S112中检测到的指定开始操作和该指定结束操作,确定下一个发音对象乐句(步骤S117)。例如CPU 10如上所述,在步骤S112中检测到前进操作件34的按下操作后,在步骤S116中检测到前进操作件34的释放操作的情况下,将当前的乐句的后1个乐句确定为发音对象乐句。接下来,CPU 10进行读取位置的更新,即,将光标位置更新为所确定的发音对象乐句中的起始的音节(步骤S118)。由此,如果在确定下一个发音对象乐句后的步骤S103中取得了歌唱指示,则歌唱该发音对象乐句中的与起始相对应的音节,因此能够立即向所确定的乐句的歌唱转换。此外,所确定的发音对象乐句中的光标位置的更新目的地为规定位置即可,并不是必须是起始位置处。然后,CPU 10将发音对象乐句设为确定状态(步骤S119),停止正在输出的哑音(步骤S120)。由此,与确定出发音对象乐句相应地哑音的发音结束。然后,处理进入步骤S121。
在步骤S121中,CPU 10执行其他处理。例如CPU 10在哑音的发音持续一定时间以上的情况下,重新进行相同哑音的生成及输出。由此,例如,在“噜ー”这一哑音持续得长的情况下,能够如“噜ー噜ー噜ー”这样重复相同音节的发音。然后,CPU 10对演奏是否结束进行判别(步骤S122),在没有结束演奏的情况下使处理返回至步骤S103。另一方面,在结束了演奏的情况下,CPU 10如果正在输出音,则停止该音的输出(步骤S123),结束图4所示的处理。此外,CPU 10例如能够基于选择曲的最末尾的音节是否发音、或者是否通过其他操作件16进行了结束演奏的操作等对是否结束了演奏进行判别。
根据本实施方式,与检测到乐句指定操作相应地,发出与基于歌唱的指示的歌唱音不同的哑音(规定的歌唱音)。由此,即使在每次乐句切换时基于原本的歌唱指示的音节的发音停止,通过发出哑音,从而也能够缓和发音区间的切换时的不适感。特别是发出哑音是与检测到指定开始操作相应地开始,至少持续至下一个发音对象区间确定为止,因此避免在切换发音区间时成为无声。另外,由于通过指定结束操作对发音对象乐句进行确定,因此在用户进行乐句指定操作的期间,能够使哑音的发音继续。
另外,在哑音的发音中取得了指定音高的指示的情况下,CPU 10将哑音的发音音高向所指定出的音高进行变更(步骤S106),因此能够通过哑音的音高修正而进一步缓和不适感。
(第2实施方式)
在第1实施方式中,如果发音对象乐句成为确定状态,则立即停止哑音。与此相对,在本发明的第2实施方式中,在发音对象乐句确定后的最初,直至存在音符开为止,使开始发音的哑音继续。为此,废除图4的步骤S120即可。如果这样,则通过发音对象乐句成为确定状态后的最初的音符开,至此为止正在输出的哑音在步骤S104中被停止。因此,能够使得直至发音对象乐句确定后的音符开为止使开始发音的哑音不中断。
此外,本实施方式例如在通过1个操作使指定开始操作和指定结束操作完结这样的规格中是有效的。例如,也可以在仅通过按下前进操作件34或者返回操作件35而对指定开始操作和指定结束操作进行指示,释放操作不具有任何意图这样的规格中应用本发明。
(第3实施方式)
在第1实施方式中,在发出哑音后存在音符开的情况下,通过改变音高而再发出哑音,从而将哑音的音高修正为音符开的音高(步骤S106)。与此相对在本发明的第3实施方式中,在发出哑音后即使存在音符开,也不会进行哑音的再播放、再发音。
图7是表示进行通过本发明的第3实施方式所涉及的电子乐器100的演奏的情况下的处理的流程的一个例子的流程图的一部分。在该流程图中,相对于图4的流程图,步骤S103之前的处理、步骤S109之后的处理是相同的,因此省略了它们的图示。废除了步骤S105、S106。
在步骤S103中,如果检测到音符开,则CPU 10对是否正在发出哑音进行判别(步骤S201)。而且,在没有正在发出哑音的情况下,执行步骤S104、S107、S108而使处理进入步骤S109。因此,基于前一次音符开的正在发出的音被停止,发出基于本次音符开的歌唱音。此外,哑音被停止是指发音对象乐句已确定。另一方面,CPU 10在哑音的情况下,使处理进入步骤S109。因此,在正在发出哑音的情况下,即使存在音符开,也不进行基于音符开的发音,哑音的发音继续而不进行音高修正。
此外,关于乐句指定操作的方式,并不限定于例示出的方式,可考虑各种变化。例如,如在第2实施方式中也提及的那样,可以构成为通过将如前进操作件34、返回操作件35这样的指定操作件按下1次而对指定开始操作及指定结束操作进行指示,确定发音对象乐句。另外,通过1组操作而移动的目标乐句并不限定于相邻的乐句,CPU 10可以跳过多个乐句而确定发音对象乐句。另外,也可以构成为通过将指定操作件长按一定时间,从而指定开始操作及指定结束操作完成。此时,CPU 10也可以与长按的时间长度相应地确定移动目的地的乐句。另外CPU 10也可以通过一定时间内的指定操作件的按下操作和释放操作的重复次数而确定移动目的地的发音对象乐句。或者,也可以构成为通过指定操作件和其他操作件的操作的组合而能够指定移动目的地的发音对象乐句。另外,也可以通过以规定的方式操作指定操作件,并不限于当前的乐句,将选择曲的起始的乐句确定为发音对象乐句。
此外,关于发音对象乐句的确定和所确定的发音对象乐句中的光标位置的设定可以为如下所述。例如,在选择曲的最终乐句处存在通过前进操作件34进行的乐句指定操作的情况下,CPU 10可以将选择曲的起始乐句确定为发音对象乐句,将光标设定于发音对象乐句的起始音节。另外,在起始乐句处存在通过返回操作件35进行的乐句指定操作的情况下,CPU 10可以将选择曲的起始乐句确定为发音对象乐句,将光标设定于发音对象乐句的起始音节。
此外,选择曲的歌唱用数据14a只要能够以分为多个乐句的状态取得即可,并不限定于以歌曲单位取得,也可以以乐句单位取得。歌唱用数据14a存储于数据存储部14中的方式也并不限定于歌曲单位。另外,歌唱用数据14a的取得对象并不限定于存储部,也可以将通过通信I/F 22的外部仪器设为取得对象。另外,也可以通过在电子乐器100中由用户进行编辑或者创建而由CPU 10取得。
以上,将本发明基于其优选的实施方式而进行了详述,但本发明并不限定于这些特定的实施方式,不脱离本发明的主旨的范围的各种方式也包含于本发明。
此外,也可以通过使本乐器读取存储有由用于实现本发明的软件表示的控制程序的存储介质,从而实现相同的效果,在该情况下,从存储介质读取的程序代码本身实现本发明的新功能,存储有该程序代码的非易失性的计算机可读取的记录介质构成本发明。另外,也可以将程序代码经由传送介质等进行供给,在该情况下,程序代码本身构成本发明。此外,作为上述情况的存储介质,除了ROM以外,还能够使用软盘、硬盘、光盘、光磁盘、CD-ROM、CD-R、磁带、非易失性的存储器卡等。“非易失性的计算机可读取的记录介质”是指如成为经由互联网等网络、电话线路等通信线路而发送出程序的情况下的服务器或客户端的计算机系统内部的易失性存储器(例如DRAM(Dynamic Random Access Memory))那样,包含以一定时间保存有程序的介质。
标号的说明
10 CPU(数据取得部、检测部、发音控制部、确定部)
14a 歌唱用数据

Claims (8)

1.一种音发生装置,其具有:
数据取得部,其取得歌唱用数据,该歌唱用数据包含成为发音的基础的音节信息,由连续的多个区间构成;
检测部,其对区间指定操作进行检测,该区间指定操作对由所述数据取得部取得的歌唱用数据中的下一个发音对象区间进行指定;以及
发音控制部,其与由所述检测部检测到区间指定操作相应地,对与基于歌唱的指示的歌唱音不同的规定的歌唱音进行发音。
2.根据权利要求1所述的音发生装置,其中,
具有确定部,该确定部基于由所述检测部检测到的区间指定操作而确定所述下一个发音对象区间,
所述发音控制部与由所述检测部检测到表示指定开始的区间指定操作相应地开始所述规定的歌唱音的发音,直至至少由所述确定部对所述下一个发音对象区间进行确定为止,继续所述规定的歌唱音的发音。
3.根据权利要求2所述的音发生装置,其中,
所述确定部与由所述检测部检测到表示指定结束的区间指定操作相应地确定所述下一个发音对象区间。
4.根据权利要求1至3中任一项所述的音发生装置,其中,
具有指示取得部,该指示取得部取得所述歌唱的指示,
所述发音控制部与由所述指示取得部取得了歌唱的指示相应地,歌唱所述歌唱用数据中的多个音节信息中的、以预先确定的顺序规定的音节信息。
5.根据权利要求4所述的音发生装置,其中,
所述发音控制部在确定所述下一个发音对象区间后,与由所述指示取得部取得了歌唱的指示相应地,歌唱所述下一个发音对象区间中的与规定位置相对应的音节信息。
6.根据权利要求5所述的音发生装置,其中,
所述发音控制部在确定所述下一个发音对象区间后,与由所述指示取得部取得了歌唱的指示相应地直至与所述规定位置相对应的音节信息的歌唱开始为止,继续所述规定的歌唱音的发音。
7.根据权利要求1至6中任一项所述的音发生装置,其中,
所述发音控制部在所述规定的歌唱音的发音中取得了对音高进行指定的指示的情况下,将所述规定的歌唱音的发音音高向所述指定出的音高进行变更。
8.一种音发生方法,其具有下述步骤:
数据取得步骤,取得歌唱用数据,该歌唱用数据包含成为发音的基础的音节信息,由连续的多个区间构成;
检测步骤,对区间指定操作进行检测,该区间指定操作对由所述数据取得步骤取得的歌唱用数据中的下一个发音对象区间进行指定;以及
发音步骤,与由所述检测步骤检测到区间指定操作相应地,对与基于歌唱的指示的歌唱音不同的规定的歌唱音进行发音。
CN201780091661.1A 2017-06-28 2017-06-28 音发生装置及方法 Active CN110720122B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023783 WO2019003349A1 (ja) 2017-06-28 2017-06-28 音発生装置及び方法

Publications (2)

Publication Number Publication Date
CN110720122A true CN110720122A (zh) 2020-01-21
CN110720122B CN110720122B (zh) 2023-06-27

Family

ID=64742814

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780091661.1A Active CN110720122B (zh) 2017-06-28 2017-06-28 音发生装置及方法

Country Status (3)

Country Link
JP (1) JP6787491B2 (zh)
CN (1) CN110720122B (zh)
WO (1) WO2019003349A1 (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049192A (ja) * 1996-07-30 1998-02-20 Yamaha Corp 歌唱音合成装置
JP2003140694A (ja) * 2001-11-05 2003-05-16 Matsushita Electric Ind Co Ltd オーディオデコーダ
CN1906660A (zh) * 2004-07-21 2007-01-31 松下电器产业株式会社 语音合成装置
US20090204404A1 (en) * 2003-08-26 2009-08-13 Clearplay Inc. Method and apparatus for controlling play of an audio signal
JP2014098800A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2018077280A (ja) * 2016-11-07 2018-05-17 ヤマハ株式会社 音声合成方法
JP2020166299A (ja) * 2017-11-29 2020-10-08 ヤマハ株式会社 音声合成方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4168621B2 (ja) * 2001-12-03 2008-10-22 沖電気工業株式会社 歌唱音声合成を用いた携帯電話装置及び携帯電話システム
JP4735544B2 (ja) * 2007-01-10 2011-07-27 ヤマハ株式会社 歌唱合成のための装置およびプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1049192A (ja) * 1996-07-30 1998-02-20 Yamaha Corp 歌唱音合成装置
JP2003140694A (ja) * 2001-11-05 2003-05-16 Matsushita Electric Ind Co Ltd オーディオデコーダ
US20090204404A1 (en) * 2003-08-26 2009-08-13 Clearplay Inc. Method and apparatus for controlling play of an audio signal
CN1906660A (zh) * 2004-07-21 2007-01-31 松下电器产业株式会社 语音合成装置
JP2014098800A (ja) * 2012-11-14 2014-05-29 Yamaha Corp 音声合成装置
JP2018077280A (ja) * 2016-11-07 2018-05-17 ヤマハ株式会社 音声合成方法
JP2020166299A (ja) * 2017-11-29 2020-10-08 ヤマハ株式会社 音声合成方法

Also Published As

Publication number Publication date
JPWO2019003349A1 (ja) 2020-01-16
CN110720122B (zh) 2023-06-27
WO2019003349A1 (ja) 2019-01-03
JP6787491B2 (ja) 2020-11-18

Similar Documents

Publication Publication Date Title
US10789922B2 (en) Electronic musical instrument, electronic musical instrument control method, and storage medium
JP7259817B2 (ja) 電子楽器、方法及びプログラム
JP6728754B2 (ja) 発音装置、発音方法および発音プログラム
JP7367641B2 (ja) 電子楽器、方法及びプログラム
JP6705272B2 (ja) 発音制御装置、発音制御方法、及びプログラム
JP2022071098A (ja) 電子楽器、方法及びプログラム
JP2023015302A (ja) 電子機器、電子楽器、方法及びプログラム
JP4929604B2 (ja) 歌データ入力プログラム
JP2020144346A (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
US20220301530A1 (en) Information processing device, electronic musical instrument, and information processing method
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
CN110720122B (zh) 音发生装置及方法
JP6732216B2 (ja) 歌詞表示装置及び歌詞表示装置における歌詞表示方法、電子楽器
WO2018198380A1 (ja) 歌詞表示装置及び方法
WO2023120121A1 (ja) 子音長変更装置、電子楽器、楽器システム、方法及びプログラム
JP7456430B2 (ja) 情報処理装置、電子楽器システム、電子楽器、音節進行制御方法及びプログラム
JP7528488B2 (ja) 電子楽器、方法及びプログラム
JP2018151548A (ja) 発音装置及びループ区間設定方法
JP2016177277A (ja) 発音装置、発音方法および発音プログラム
JP2017003625A (ja) 歌唱音声出力制御装置
WO2019003348A1 (ja) 歌唱音効果生成装置及び方法、プログラム
JP2022038903A (ja) 電子楽器、電子楽器の制御方法、及びプログラム
CN117877459A (zh) 记录介质、音响处理方法以及音响处理系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant