CN107430849A - 声音控制装置、声音控制方法和声音控制程序 - Google Patents

声音控制装置、声音控制方法和声音控制程序 Download PDF

Info

Publication number
CN107430849A
CN107430849A CN201680016405.1A CN201680016405A CN107430849A CN 107430849 A CN107430849 A CN 107430849A CN 201680016405 A CN201680016405 A CN 201680016405A CN 107430849 A CN107430849 A CN 107430849A
Authority
CN
China
Prior art keywords
sound
control parameter
syllable
control
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201680016405.1A
Other languages
English (en)
Other versions
CN107430849B (zh
Inventor
滨野桂三
太田良朋
柏濑辉
柏濑一辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN107430849A publication Critical patent/CN107430849A/zh
Application granted granted Critical
Publication of CN107430849B publication Critical patent/CN107430849B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • G10L13/10Prosody rules derived from text; Stress or intonation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/161Note sequence effects, i.e. sensing, altering, controlling, processing or synthesising a note trigger selection or sequence, e.g. by altering trigger timing, triggered note values, adding improvisation or ornaments, also rapid repetition of the same note onset, e.g. on a piano, guitar, e.g. rasgueado, drum roll
    • G10H2210/165Humanizing effects, i.e. causing a performance to sound less machine-like, e.g. by slightly randomising pitch or tempo
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/315Sound category-dependent sound synthesis processes [Gensound] for musical use; Sound category-specific synthesis-controlling parameters or control means therefor
    • G10H2250/455Gensound singing voices, i.e. generation of human voices for musical applications, vocal singing sounds or intelligible words at a desired pitch or with desired vocal effects, e.g. by phoneme synthesis

Abstract

一种声音控制装置,配备有:接收单元,其接收指示开始输出声音的开始指令;读取单元,其响应于接收到开始指令,读取确定声音的输出模式的控制参数;以及控制单元,其使得声音以与所读取的控制参数对应的模式输出。

Description

声音控制装置、声音控制方法和声音控制程序
技术领域
本发明涉及能够容易地演奏富有表现力的声音的声音控制装置、声音控制方法和声音控制程序。
本申请要求于2015年3月20日提交的日本专利申请No.2015-057946的优先权,其内容通过引用合并于此。
背景技术
专利文献1公开了一种歌声合成设备,其基于实时输入的演奏数据来执行歌声合成。该歌声合成设备基于从乐器数字接口(MIDI)装置接收到的演奏数据来形成歌唱合成乐谱,并且基于该乐谱来对歌唱进行合成。歌唱合成乐谱包括音素轨道、过渡轨道和颤音轨道。根据对MIDI装置的操作来执行音量控制和颤音控制。
非专利文献2公开了如下的一种声道创建软件:其中,输入音符和歌词,并且使得跟随音符的音高而唱出歌词。非专利文献1描述了提供用于调整语音的表现力和语调、以及音质和音色的改变的多个参数,使得细微差别和语调附于歌声。
[现有技术文献]
[专利文献]
[专利文献1]日本未审查专利申请初次公布No.2002-202788
[非专利文献]
[非专利文献1]VOCALOID有效使用手册“VOCALOID EDITOR Utilization Method(VOCALOID EDITOR使用方法)”[online],[平成27年2月27日检索],因特网<http://www.crypton.co.jp/mp/pages/download/pdf/vocaloid_master_01.pdf>
发明内容
本发明要解决的问题
当通过实时演奏来进行歌声合成时,对在演奏期间可以操作的多个参数有限制。因此,在非专利文献1描述的允许通过再现先前输入的信息来唱歌的声道创建软件中存在难以控制大量参数的问题。
本发明的目的的示例是提供能够容易地演奏富有表现力的声音的声音控制装置、声音控制方法和声音控制程序。
用于解决问题的手段
根据本发明的一方面的一种声音控制装置包括:接收单元,其接收指示开始输出声音的开始指令;读取单元,其响应于接收到开始指令,读取确定声音的输出模式的控制参数;以及控制单元,其使得声音以根据所读取的控制参数的模式输出。
根据本发明的一方面的一种声音控制方法包括:接收指示开始输出声音的开始指令;响应于接收到开始指令,读取确定声音的输出模式的控制参数;以及使得声音以根据所读取的控制参数的模式输出。
根据本发明的一方面的一种声音控制程序使得计算机执行如下操作:接收指示开始输出声音的开始指令;响应于接收到开始指令,读取确定声音的输出模式的控制参数;以及使得声音以根据所读取的控制参数的模式输出。
发明效果
在根据本发明的实施例的声音生成设备中,根据开始指令,以根据读取的控制参数的声音生成模式输出声音。出于该原因,容易演奏有表现力的声音。
附图说明
图1是示出根据本发明的实施例的声音生成设备的硬件配置的功能框图。
图2A是根据本发明的第一实施例的声音生成设备执行的键接通(key-on)处理的流程图。
图2B是根据本发明的第一实施例的声音生成设备执行的音节信息获取处理的流程图。
图3A是用于说明根据本发明的第一实施例的声音生成设备要处理的声音生成指令接受处理的图。
图3B是用于说明根据本发明的第一实施例的声音生成设备要处理的音节信息获取处理的图。
图3C是用于说明根据本发明的第一实施例的声音生成设备要处理的语音要素数据选择处理的图。
图4是示出根据本发明的第一实施例的声音生成设备的操作的时序图。
图5是根据本发明的第一实施例的声音生成设备执行的键断开(key-off)处理的流程图。
图6A是用于说明根据本发明的第一实施例的声音生成设备执行的键断开处理的另一操作示例的视图。
图6B是用于说明根据本发明的第一实施例的声音生成设备执行的键断开处理的另一操作示例的视图。
图6C是用于说明根据本发明的第一实施例的声音生成设备执行的键断开处理的另一操作示例的视图。
图7是用于说明根据本发明的第二实施例的声音生成设备的操作示例的视图。
图8是根据本发明的第三实施例的声音生成设备执行的音节信息获取处理的流程图。
图9A是用于说明根据本发明的第三实施例的声音生成设备执行的声音生成指令接受处理的图。
图9B是用于说明根据本发明的第三实施例的声音生成设备执行的音节信息获取处理的图。
图10是示出根据本发明的第三实施例的声音生成设备中的歌词信息表的值的图。
图11是示出根据本发明的第三实施例的声音生成设备的操作示例的图。
图12是示出根据本发明的第三实施例的歌词信息表的变型示例的图。
图13是示出根据本发明的第三实施例的歌词信息表的变型示例的图。
图14是示出根据本发明的第三实施例的文本数据的变型示例的图。
图15是示出根据本发明的第三实施例的歌词信息表的变型示例的图。
具体实施方式
图1是示出根据本发明的实施例的声音生成设备的硬件配置的功能框图。
图1所示的根据本发明的实施例的声音生成设备1包括CPU(中央处理单元)10、ROM(只读存储器)11、RAM(随机存取存储器)12、声音源13、声音系统14、显示单元(显示器)15、演奏操作器16、设定操作器17、数据存储器18和总线19。
声音控制装置可以对应于声音生成设备1(100,200)。该声音控制装置的接收单元、读取单元、控制单元、存储单元和操作器可均对应于声音生成设备1的这些配置中的至少一个。例如,接收单元可以对应于CPU 10和演奏操作器16中的至少一个。读取单元可以对应于CPU 10。控制单元可以对应于CPU 10、声音源13和声音系统14中的至少一个。存储单元可以对应于数据存储器18。操作器可以对应于演奏操作器16。
CPU 10是控制根据本发明的实施例的整个声音生成设备1的中央处理单元。ROM(只读存储器)11是其中存储有控制程序和各种数据的非易失性存储器。RAM 12是用于CPU10的工作区和各种缓冲的易失性存储器。数据存储器18存储包括歌词被划分成音节的文本数据的音节信息以及存储歌声的语音要素(speech element)数据的音素数据库等。显示单元15是包括液晶显示器等的显示单元,在其上显示操作状态以及各种设定画面和给用户的消息。演奏操作器16是包括具有对应于不同音高的多个键的键盘(参见图7的部分(c))的演奏操作器。演奏操作器16生成诸如键接通、键断开、音高和速度的演奏信息。以下,演奏控制器在一些情况下可称为键。该演奏信息可以是MIDI消息的演奏信息。设定操作器17是用于对声音生成设备1进行设定的诸如操作旋钮和操作按钮的各种设定操作元件。
声音源13具有多个声音生成通道。在CPU 10的控制下,使用演奏操作器16、根据用户的实时演奏来向声音源13分配一个声音生成通道。在所分配的声音生成通道中,声音源13从数据存储器18读出对应于演奏的语音要素数据,并且生成歌声数据。声音系统14使声音源13生成的歌声数据由数模转换器转换成模拟信号,放大变成模拟信号的歌声,并且将其输出至扬声器等。总线19是用于在声音生成设备1的各部分之间传送数据的总线。
以下将描述根据本发明的第一实施例的声音生成设备1。在第一实施例的声音生成设备1中,当使演奏操作器16键接通时,执行图2A所示的流程图的键接通处理。图2B示出了该键接通处理中的音节信息获取处理的流程图。图3A是键接通处理中的声音生成接收处理的说明图。图3B是音节信息获取处理的说明图。图3C是语音要素数据选择处理的说明图。图4是示出第一实施例的声音生成设备1的操作的时序图。图5示出了当在第一实施例的声音生成设备1中使演奏操作器16键断开时所执行的键断开处理的流程图。
在第一实施例的声音生成设备1中,当用户实时演奏时,通过操作演奏操作器16来进行演奏。演奏操作器16可以是键盘等。当CPU 10检测到演奏操作器16随着演奏进行而被键接通时,开始图2A所示的键接通处理。CPU 10执行键接通处理中步骤S10的声音生成指令接受处理和步骤S11的音节信息获取处理。声音源13在CPU 10的控制下执行步骤S12的语音要素数据选择处理和步骤S13的声音生成处理。
在键接通处理的步骤S10中,接受基于所操作的演奏操作器16的键接通的声音生成指令(开始指令的示例)。在该情况下,CPU 10接受诸如键接通定时、以及所操作的演奏操作器16的音高信息和速度的演奏信息。在用户如图3A所示的乐谱中所示那样实时演奏的情况下,当接受第一键接通n1的声音生成指令时,CPU 10接收指示音高E5的音高信息以及对应于键速的速度信息。
接下来,在步骤S11中,执行用于获取对应于键接通的音节信息的音节信息获取处理。图2B是示出音节信息获取处理的详情的流程图。CPU 10执行音节信息获取处理。在步骤S20中,CPU 10获取在光标位置处的音节。在该情况下,在用户进行演奏之前指定特定歌词。特定歌词例如是对应于图3A所示的乐谱的歌词并且存储在数据存储器18中。此外,光标被放置在文本数据的第一音节处。该文本数据是通过针对每个音节界定所指定的歌词而获得的数据。作为具体示例,将描述文本数据30是与对应于图3A所示的乐谱所指定的歌词对应的文本数据。在这种情况下,文本数据30是图3B所示的音节c1至c42,即,包括“ha”、“ru”、“yo”、“ko”和“i”这五个音节的文本数据。以下,“ha”、“ru”、“yo”、“ko”和“i”均表示作为音节的示例的、日本平假名的一个字母。在这种情况下,音节“c1”至“c3”(即,“ha”、“ru”和“yo”)是彼此独立的。对c41和c42的音节“ko”和“i”进行分组。指示是否进行该分组的信息是分组信息(设定信息的示例)31。分组信息31嵌入每个音节中,或者与每个音节相关联。在分组信息31中,符号“x”指示不进行分组,以及符号“○”指示进行分组。分组信息31可以存储在数据存储器18中。如图3B所示,当接受第一键接通n1的声音生成指令时,CPU 10从数据存储器18读取作为所指定的歌词的第一音节c1的“ha”。此时,CPU 10还从数据存储器18读取嵌入有“ha”或与“ha”相关联的分组信息31。接下来,CPU 10根据所获取的音节的分组信息31来确定在步骤S21中所获取的音节是否被分组。在步骤S20中所获取的音节是c1的“ha”的情况下,由于分组信息31是“x”而确定不进行分组,并且处理进行至步骤S25。在步骤S25中,CPU 10使光标前进至文本数据30的下一音节,并且将光标放置于第二音节c2的“ru”。在完成步骤S25的处理时,终止音节信息获取处理,并且该处理返回至键接通处理的步骤S12。
图3C是用于说明步骤S12的语音要素数据选择处理的图。步骤S12的语音要素数据选择处理是在CPU 10的控制下声音源13执行的处理。声音源13从音素数据库32选择使得生成所获得的音节的语音要素数据。在音素数据库32中,存储有“音素链数据(phonemicchain data)32a”和“固定部分数据32b”。音素链数据32a是当声音生成改变时对应于“从无音(#)到辅音”、“从辅音到元音”、“从元音到(下一音节的)辅音或元音”等的音素片的数据。固定部分数据32b是当元音声的声音生成继续时音素片的数据。在响应于接受第一键接通n1的声音生成指令而获取的音节是c1的“ha”的情况下,声音源13从音素链数据32a中选择对应于“无音→辅音h”的语音要素数据“#-h”以及对应于“辅音h→元音a”的语音要素数据“h-a”,并且从固定部分数据32b中选择对应于“元音a”的语音要素数据“a”。接下来,在步骤S13中,声音源13在CPU 10的控制下基于在步骤S13中选择的语音要素数据执行声音生成处理。如上所述,当选择了语音要素数据时,接着,在步骤S13的声音生成处理中,声音源13顺序地进行对语音要素数据‘“#-h”→“h-a”→“a”’的声音生成。因此,进行了对音节c1的“ha”的声音生成。在进行声音生成时,以在接收键接通n1的声音生成指令时接收到的音高E5、以对应于速度信息的音量生成“ha”的歌声。当完成步骤S13的声音生成处理时,也终止键接通处理。
图4示出了该键接通处理的操作。图4的部分(a)示出了按压键的操作。图4的部分(b)示出了声音生成内容。图4的部分(c)示出了语音要素。在时间t1处,CPU 10接受第一键接通n1的声音生成指令(步骤S10)。接下来,CPU 10获取第一音节c1并且判断出音节c1与另一音节不为一组(步骤S11)。接下来,声音源13选择语音要素数据“#-h”、“h-a”和“a”以生成音节c1(步骤S12)。接下来,与键接通n1的速度信息对应的音量的包络ENV1开始,并且以音高E5且以包络ENV1的音量生成语音要素数据‘“#-h”→“h-a”→“a”’(步骤S13)。结果,生成了歌声“ha”。包络ENV1是持续声音的包络,在该持续声音中,延音(sustain)持续到键接通n1的被键断开。重复地再现语音要素数据“a”,直到键接通n1的键在时间t2被键断开。然后,当CPU 10检测到在时间t2处进行了键断开(停止指令的示例)时,图5所示的键断开处理开始。由CPU 10执行键断开处理的步骤S30和步骤S33的处理。在CPU 10的控制下由声音源13执行步骤S31和S32的处理。
当键断开处理开始时,在步骤S30中判断键断开声音生成标记是否开启。当对所获取的音节进行分组时,设定键断开声音生成标记。在图2A所示的音节信息获取处理时,不对第一音节c1进行分组。因此,CPU 10确定未设定键断开声音生成标记(在步骤S30中为否),并且处理进行至步骤S34。在步骤S34中,在CPU 10的控制下,声音源13进行静音处理,结果,停止歌声“ha”的声音生成。即,在包络ENV1的释放曲线中,歌声“ha”静音。在完成步骤S34的处理时,终止键断开处理。
当随着实时演奏进行而操作演奏操作器16并且检测到第二键接通n2时,重新开始上述键接通处理,并且执行上述键接通处理。将描述在第二键接通处理中步骤S10的声音生成指令接受处理。在该处理中,当基于所操作的演奏操作器16的键接通n2来接受声音生成指令时,CPU 10接收键接通n2的定时、指示音高E5的音高信息和对应于键速的速度信息。在步骤S11的音节信息获取处理中,CPU 10从数据存储器18读出作为所指定的歌词的光标置于其上的第二音节c2的“ru”。所获取的音节“ru”的分组信息31为“x”。因此,CPU 10确定其未被分组,并且将光标前移至第三音节c3的“yo”。在步骤S12的语音要素数据选择处理中,声音源13从音素链数据32a中选择对应于“无音→辅音r”的语音要素数据“#-r”、以及对应于“辅音r→元音u”的语音要素数据“r-u”,并且从固定部分数据32b中选择对应于“元音u”的语音要素数据“u”。在步骤S13的声音生成处理中,声音源13在CPU 10的控制下顺序地生成语音要素数据‘“#-r”→“r-u”→“u”’。结果,生成了音节c2的“ru”,并且终止键接通处理。
当随着实时演奏的进行而操作演奏操作器16并且检测到第三键接通n3时,重新开始上述键接通处理并且执行上述键接通处理。在第二键接通n2被键断开之前,将该第三键接通n3设定为待被键接通的连音。将描述在第三键接通处理中步骤S10的声音生成指令接受处理。在该处理中,当基于所操作的演奏操作器16的键接通n3来接受声音生成指令时,CPU 10接收键接通n3的定时、指示音高D5的音高信息以及对应于键速的速度信息。在步骤S11的音节信息获取处理中,CPU 10从数据存储器18读出作为所指定的歌词的光标置于其上的第三音节c3的“yo”。所获取的音节“yo”的分组信息31为“x”。因此,CPU 10确定其未被分组,并且将光标前移至第四音节c41的“ko”。在步骤S12的语音要素数据选择处理中,声音源13从音素链数据32a中选择对应于“元音u→辅音y”的语音要素数据“u-y”以及对应于“辅音y→元音o”的语音要素数据“y-o”,并且从固定部分数据32b中选择对应于“元音o”的语音要素数据“o”。这是因为第三键接通n3是连音,因此需要平滑地且连续地生成从“ru”到“yo”的声音。在步骤S13的声音生成处理中,声音源13在CPU 10的控制下顺序地生成语音要素数据‘“u-y”→“y-o”→“o”’。结果,生成从c2的“ru”平滑地连接的音节c3的“yo”,并且终止键接通处理。
图4示出了第二和第三键接通处理的操作。在时间t3,CPU 10接受第二键接通n2的声音生成指令(步骤S10)。CPU 10获取下一音节c2并且判断音节c2与另一音节不为一组(步骤S11)。接下来,声音源13选择语音要素数据“#-r”、“r-u”和“u”以生成音节c2(步骤S12)。声音源13开始与键接通n2的速度信息对应的音量的包络ENV2,并且以音高E5和包络ENV2的音量生成语音要素数据‘“#-r”→“r-u”→“u”’(步骤S13)。结果,生成歌声“ru”。包络ENV2与包络ENV1相同。重复地再现语音要素数据“u”。在对应于键接通n2的键被键断开之前的时间t4,接受第三键接通n3的声音生成指令(步骤S10)。响应于声音生成指令,CPU 10获取下一音节c3,并且判断音节c3与另一音节不为一组(步骤S11)。在时间t4,由于第三键接通n3是连音,因此CPU 10开始图5所示的键断开处理。在键断开处理的步骤S30中,不对作为第二音节c2的“ru”分组。因此,CPU 10确定未设定键断开声音生成标记(在步骤S30中否),并且该处理进行至步骤S34。在步骤S34中,停止生成“ru”的歌声。在完成步骤S34的处理时,终止键断开处理。这是由于以下原因。即,一个通道被准备用于针对歌声的声音生成通道,并且无法同时生成两个歌声。因此,当在键接通n2的键被键断开的时间t5之前的时间t4检测到下一键接通n3时(即,在连音的情况下),在时间t4停止基于键接通n2的对歌声的声音生成,使得从时间t4开始基于键接通n3的对歌声的声音生成。
因此,声音源13选择语音要素数据“u-y”、“y-o”和“o”以生成作为音节c3的“yo”(步骤S12),并且从时间t4开始,以音高D5和包络ENV2的持续音量生成语音要素数据‘“u-y”→“y-o”→“o”’(步骤S13)。结果,歌声平滑地从“ru”连接至“yo”并被生成。即使键接通n2的键在时间t5被键断开,由于已停止基于键接通n2的对歌声的声音生成,因此没有处理被执行。
当CPU 10在时间t6检测到键接通n3被键断开时,其开始图5所示的键断开处理。不对第三音节c3“yo”分组。因此,在键断开处理的步骤S30中,CPU 10确定未设定键断开声音生成标记(在步骤S30中为否),并且处理进行至步骤S34。在步骤S34中,声音源13执行静音处理,并且停止对“yo”的歌声的声音生成。即,在包络ENV2的释放曲线中使“yo”的歌声静音。在完成步骤S34的处理时,终止键断开处理。
当随着实时演奏进行而操作演奏操作器16并且检测到第四键接通n4时,重新开始上述键接通处理,并且执行上述键接通处理。将描述在第四键接通处理中步骤S10的声音生成指令接受处理。在该处理中,当基于所操作的演奏操作器16的第四键接通n4来接受声音生成指令时,CPU 10接收键接通n4的定时、指示音高E5的音高信息以及对应于键速的速度信息。在步骤S11的音节信息获取处理中,CPU 10从数据存储器18读出作为所指定的歌词的光标置于其上的第四音节c41的“ko”(步骤S20)。所获取的音节“ko”的分组信息31是“○”。因此,CPU 10确定音节c41与另一音节为一组(步骤S21),并且处理进行至步骤S22。在步骤S22中,获取属于同一组的音节(该组中的音节)。在该情况下,由于“ko”和“i”为一组,因此CPU 10从数据存储器18读出作为与音节c41属于同一组的音节的音节c42“i”。接下来,CPU10在步骤S23中设定键断开声音生成标记,并且当进行键断开时准备生成属于同一组的下一音节“i”。在下一步骤S24中,对于文本数据30,CPU 10将光标前移至“ko”和“i”所属的组之外的下一音节。然而,在所示的示例的情况下,由于不存在下一音节,因此略过该处理。在完成步骤S24的处理时,终止音节信息获取处理,并且该处理返回至键接通处理的步骤S12。
在步骤S12的语音要素数据选择处理中,声音源13选择与属于同一组的音节“ko”和“i”对应的语音要素数据。即,声音源13从音素链数据32a中选择对应于“无音→辅音k”的语音要素数据“#-k”以及对应于“音节ko→元音o”的语音要素数据“k-o”,并且还从固定部分数据32b中选择对应于“元音o”的语音要素数据“o”,作为对应于音节“ko”的语音要素数据。另外,声音源13从音素链数据32a中选择对应于“元音o→元音i”的语音要素数据“o-i”,并且从固定部分数据32b中选择对应于“元音i”的语音要素数据“i”,作为对应于音节“i”的语音要素数据。在步骤S13的声音生成处理中,在属于同一组的音节当中,执行第一音节的声音生成。即,在CPU 10的控制下,声音源13顺序地生成语音要素数据‘“#-k”→“k-o”→“o”’。结果,生成作为音节c41的“ko”。在声音生成时,以对应于速度信息的音量、以在接受键接通n4的声音生成指令时接收到的音高E5生成歌声“ko”。当完成步骤S13的声音生成处理时,还终止键接通处理。
图4示出了该键接通处理的操作。在时间t7,CPU 10接受第四键接通n4的声音生成指令(步骤S10)。CPU 10获取第四音节c41(以及嵌入音节c41中或与音节c41相关联的分组信息31)。CPU 10基于分组信息31来确定音节c41与另一音节为一组。CPU 10获取与音节c41属于同一组的音节c42,并且设定键断开声音生成标记(步骤S11)。接下来,声音源13选择语音要素数据“#-k”、“k-o”、“o”以及语音要素数据“o-i”、“i”,以生成音节c41和c42(步骤S12)。然后,声音源13开始与键接通n4的速度信息对应的音量的包络ENV3,并且以音高E5和包络ENV3的音量生成语音要素数据‘“#-k”→“k-o”→“o”’的声音(步骤S13)。结果,生成“ko”的歌声。包络ENV3与包络ENV1相同。重复地再现语音要素数据“o”,直到对应于键接通n4的键在时间t8被键断开。然后,当CPU 10检测到键接通n4在时间t8被键断开时,CPU 10开始图5所示的键断开处理。
作为音节c41和c42的“ko”和“i”为一组,并且设定键断开声音生成标记。因此,在键断开处理的步骤S30中,CPU 10确定设定了键断开声音生成标记(在步骤S30中为是),并且处理进行至步骤S31。在步骤S31中,执行对与先前生成的音节属于同一组的下一音节的声音生成处理。即,在稍早执行的步骤S12的音节信息获取处理中,声音源13以音高E5和包络ENV3的释放曲线的音量生成被选择作为对应于音节“i”的语音要素数据的语音要素数据‘“o-i”→“o”’的声音。结果,以与c41的“ko”相同的音高E5生成作为音节c42的歌声“i”。接下来,在步骤S32中,执行静音处理,并且停止歌声“i”的声音生成。即,在包络ENV3的释放曲线中歌声“i”正被静音。在声音生成转变至“i”的时间点停止“ko”的声音生成。然后,在步骤S33中,重新设定键断开声音生成标记,并且终止键断开处理。
如上所述,在第一实施例的声音生成设备1中,生成作为与用户的实时演奏对应的歌声的歌声,并且在实时演奏中按压键一次(即,执行从按压该键到释放该键的一次连续操作,下文中相同),使得能够生成多个歌声。即,在第一实施例的声音生成设备1中,所分组的音节是通过按压键一次而生成的一组音节。例如,通过单次按压操作来生成所分组的音节c41和c42。在这种情况下,响应于按压键而输出第一音节的声音,此后,响应于从该键移开而输出第二音节的声音。关于分组的信息是用于确定是否通过键断开发出第二音节的声音的信息,因此可以认为是“键断开声音生成信息(设定信息)”。将描述在与键接通n4相关联的键被键断开之前进行与演奏操作器16的另一键相关联的键接通(称为键接通n5)的情况。在这种情况下,在执行键接通n4的键断开处理之后,生成键接通n5的声音。即,在作为键接通n4的键断开处理而生成音节c42之后,生成对应于键接通n5的c42的下一音节。替选地,为了及时地生成对应于键接通n5的音节,在响应于对键接通n5的操作而执行的键接通n4的键断开处理中可以省略步骤S31的处理。在这种情况下,没有生成音节c42,使得将根据键接通n5立即执行c42的下一音节的生成。
如上所述,在对应于键接通n4的键被键断开时生成与前一音节c41属于同一组的下一音节c42的“i”的声音生成。因此,存在被指示通过键断开而生成的音节的声音生成长度太短并且其变得不清楚的可能性。图6A至图6C示出了使得能够充分地加长属于同一组的下一音节的声音生成长度的键断开处理的操作的另一示例。
在图6A所示的示例中,衰减的开始从通过键接通n4的声音生成指令而开始的包络ENV3中的键断开起延迟了预定时间td。即,通过将释放曲线R1延迟时间td(如在由交替的长短虚线表示的释放曲线R2中那样),可以充分地加长属于同一组的下一音节的声音生成长度。通过操作延音踏板等,可以使得属于同一组的下一音节的声音生成长度充分长。即,在图6A所示的示例中,声音源13在包络ENV3的后一半中以恒定音量输出音节c41的声音。接下来,声音源13使得音节c42的声音的输出从音节c41的声音的输出停止处继续开始。此时,音节c42的声音的音量与正好在声音静音之前的音节c41的音量相同。在将音量保持预定时间td之后,声音源13开始降低音节c42的声音的音量。
在图6B所示的示例中,在包络ENV3中使得衰减变慢。即,通过生成具有缓坡的由单点链线所示的释放曲线R3,可以充分地加长属于同一组的下一音节的声音生成长度。即,在图6B所示的示例中,声音源13以比在不输出音节c42的声音的情况(音节c41与其他音节不为一组的情况)下音节c41的声音的音量的衰减速率慢的衰减速率,在减小音节c42的声音的音量的同时输出音节c42的声音。
在图6C所示的示例中,键断开被认为是新的音符开(note-on)指令,并且以具有相同音高的新音符生成下一音节。即,在键断开的时间t13开始包络ENV10,并且生成属于同一组的下一音节。这使得能够充分地加长属于同一组的下一音节的声音生成长度。即,在图6C所示的示例中,声音源13开始降低音节c41的声音的音量,并且同时开始输出音节c42的声音。此时,声音源13输出音节c42的声音,同时增大音节c42的声音的音量。
在上述的本发明的第一实施例的声音生成设备1中,示出了歌词是日语的情况。在日语中,一个字符几乎总是一个音节。另一方面,在其他语言中,一个字符通常无法成为一个音节。作为具体示例,将说明英语歌词是“September”的情况。“September”由三个音节“sep”、“tem”和“ber”构成。因此,每当用户按压演奏操作器16的键时,以键的音高顺序地生成这三个音节。在这种情况下,通过对两个音节“sep”和“tem”进行分组,根据按压键一次的操作来生成两个音节“sep”和“tem”。即,响应于按压键的操作,以该键的音高输出音节“sep”的声音。此外,根据从该键移开的操作,以该键的音高生成音节“tem”。歌词不限于日语并且可以是其他语言。
接下来,将描述根据本发明的第二实施例的声音生成设备。第二实施例的声音生成设备生成不具有歌词的预定声音,诸如:例如人声、拟声或合唱的歌声;或者诸如普通乐器声音、鸟叫或电话铃的声音效果。第二实施例的声音生成设备将被称为声音生成设备100。第二实施例的声音生成设备100的结构几乎与第一实施例的声音生成设备1的结构相同。然而,在第二实施例中,声音源13的配置不同于第一实施例的声音源的配置。即,第二实施例的声音源13具有预定音色而不具有上述歌词,并且可以根据所指定的音色来生成不具有歌词的预定声音。图7是用于说明第二实施例的声音生成设备100的操作示例的图。
在第二实施例的声音生成设备100中,键断开声音生成信息40代替包括文本数据30和分组信息31的音节信息存储在数据存储器18中。另外,第二实施例的声音生成设备100使得当用户使用演奏操作器16进行实时演奏时生成不具有歌词的预定声音。在第二实施例的声音生成设备100中,在图2A所示的键接通处理的步骤S11中,替代图2B所示的音节信息获取处理,执行键断开声音信息处理。另外,在步骤S12的语音要素数据选择处理中,选择用于生成预定声音或话音的声音源波形或语音要素数据。以下将描述该操作。
当CPU 10检测到通过用户实时演奏来使演奏操作器16键接通时,CPU 10开始图2A所示的键接通处理。将描述用户演奏图7的部分(a)中所示的乐谱的音乐的情况。在该情况下,CPU 10在步骤S10中接受第一键接通n1的声音生成指令,并且接收表示音高E5的音高信息和对应于键速的速度信息。然后,CPU 10参考图7的部分(b)中所示的键断开声音生成信息40,并且获得与第一键接通n1对应的键断开声音生成信息。在该情况下,在用户演奏之前指定特定的键断开声音生成信息40。该特定的键断开声音生成信息40对应于图7的部分(a)中的乐谱并存储在数据存储器18中。此外,参考所指定的键断开声音生成信息40的第一键断开声音生成信息。由于第一键断开声音生成信息被设定为“x”,因此未针对键接通n1设定键断开声音生成标记。接下来,在步骤S12中,声音源13执行语音要素数据选择处理。即,声音源13选择使得生成预定话音的语音要素数据。作为具体示例,将描述生成“na”的话音的情况。以下,“na”表示日文katakana中的一个字母。声音源13从音素链数据32a中选择语音要素数据“#-n”和“n-a”,并且从固定部分数据32b中选择语音要素数据“a”。然后,在步骤S13中,执行对应于键接通n1的声音生成处理。在该声音生成处理中,如由图7的部分(c)中所示的钢琴条形谱(piano roll score)41所示,声音源13以在检测键接通n1时接收到的音高E5生成语音要素数据‘"#-n"→"n-a"→"a"’的声音。结果,生成“na”的歌声。继续该声音生成直到键接通n1被键断开为止,并且当其被键断开时,其无声并停止。
当CPU 10随着实时演奏进行而检测到键接通n2时,执行如上所述的相同处理。由于对应于键接通n2的第二键断开声音生成信息被设定为“x”,因此未设定针对键接通n2的键断开声音生成标记。如图7的部分(c)中所示,以音高E5生成预定声音,例如,“na”的歌声。当在键接通n2的键被键断开之前检测到键接通n3时,执行如上的相同处理。由于对应于键接通n3的第三键断开声音生成信息被设定为“x”,因此未设定针对键接通n3的键断开声音生成标记。如图7的部分(c)中所示,以音高D5生成预定声音,例如,“na”的歌声。在该情况下,对应于键接通n3的声音生成变为平滑地连接至对应于键接通n2的声音的连音。此外,在与对应于键接通n3的声音生成的开始的同时,停止对应于键接通n2的声音生成。此外,当键接通n3的键被键断开时,对应于键接通n3的声音无声并停止。
当CPU 10随着进一步演奏进行而检测到键接通n4时,执行如上所述的相同处理。由于对应于键接通n4的第四键断开声音生成信息为“○”,因此设定针对键接通n4的键断开声音生成标记。如图7的部分(c)中所示,以音高E5生成预定声音,例如,“na”的歌声。当键接通n4被键断开时,对应于键接通n2的声音无声并停止。然而,由于设定了键断开声音生成标记,因此CPU 10判断出图7的部分(c)中所示的键接通n4’是新执行的,并且声音源13以与键接通n4相同的音高执行对应于键接通n4’的声音生成。即,当键接通n4的键被键断开时,生成音高为E5的预定声音,例如,“na”的歌声。在该情况下,对应于键接通n4’的声音生成长度为预定长度。
在根据上述第一实施例的声音生成设备1中,当用户使用诸如键盘等演奏操作器16来进行实时演奏时,每当执行按压演奏操作器16的操作,以演奏操作器16的音高生成文本数据30的音节。文本数据30是所指定的歌词被划分成音节的文本数据。因此,所指定的歌词在实时演奏期间被演唱。通过对歌唱的歌词的音节进行分组,可以通过对演奏操作器16的一次连续操作来使第一音节和第二音节以演奏操作器16的音高发声。即,响应于按压演奏操作器16,以对应于演奏操作器16的音高生成第一音节。此外,响应于从演奏操作器16移开的操作,以对应于演奏操作器16的音高生成第二音节。
在根据上述第二实施例的声音生成设备100中,可以以所按压的键的音高生成不具有上述歌词的预定声音,而不是根据歌词发出的歌声。因此,根据第二实施例的声音生成设备100可以应用于卡拉OK指南等。此外,在这种情况下,分别根据包括在对演奏操作器16的一次连续操作中的按压演奏操作器16的操作以及从演奏操作器16移开的操作,可以生成不具有歌词的预定声音。
接下来,将描述根据本发明的第三实施例的声音生成设备200。在第三实施例的声音生成设备200中,当用户使用诸如键盘的演奏操作器16来进行实时演奏时,可以呈现富有表现力的歌声。第三实施例的声音生成设备200的硬件配置与图1所示的配置相同。在第三实施例中,如在第一实施例中一样,执行图2A所示的键接通处理。然而,在第三实施例中,在该键接通处理中步骤S11中的音节信息获取处理的内容与第一实施例中的内容不同。具体地,在第三实施例中,执行图8所示的流程图,作为步骤S11中的音节信息获取处理。图9A是用于说明第三实施例的声音生成设备200执行的声音生成指令接受处理的图。图9B是用于说明第三实施例的声音生成设备200执行的音节信息获取处理的图。图10示出了歌词信息表中的“值v1”至“值v3”。图11示出了第三实施例的声音生成设备200的操作示例。将参照这些附图描述第三实施例的声音生成设备200。
在第三实施例的声音生成设备200中,当用户进行实时演奏时,通过操作演奏操作器16来进行演奏。演奏操作器16是键盘等。当CPU 10检测到演奏操作器16随着演奏进行而被键接通时,图2A所示的键接通处理开始。CPU 10执行键接通处理中的步骤S10的声音生成指令接受处理以及步骤S11的音节信息获取处理。声音源13在CPU 10的控制下执行步骤S12的语音要素数据选择处理以及步骤S13的声音生成处理。
在键接通处理的步骤S10中,接受基于所操作的演奏操作器16的键接通的声音生成指令。在这种情况下,CPU 10接收演奏信息(诸如键接通定时、所操作的演奏操作器16的音调音高信息和速度)。在用户演奏如图9A所示的乐谱所示的音乐的情况下,当接受第一键接通n1的定时时,CPU 10接收表示E5的音调音高的音高信息以及对应于键速的速度信息。接下来,在步骤11中,执行用于获取对应于键接通n1的音节信息的音节信息获取处理。图8示出了该音节信息获取处理的流程图。当图8所示的音节信息获取处理开始时,CPU 10在步骤S40中获取在光标位置处的音节。在该情况下,在用户演奏之前指定歌词信息表50。歌词信息表50存储在数据存储器18中。歌词信息表50包含与对应于演奏的乐谱对应的歌词被划分成音节的文本数据。这些歌词是对应于图9A所示的乐谱的歌词。另外,光标位于所指定的歌词信息表50的文本数据的开头音节处。接下来,在步骤S41中,CPU 10参考歌词信息表50以获取与所获取的第一文本数据的音节相关联的声音生成控制参数(控制参数的示例),并且获得该声音生成控制参数。图9B示出了对应于图9A所示的乐谱的歌词信息表50。
在第三实施例的声音生成设备200中,歌词信息表50具有特征配置。如图9B所示,歌词信息表50由声音生成控制参数的音节信息50a、声音生成控制参数类型50b和值信息50c构成。音节信息50a包括歌词被划分成音节的文本数据。声音生成控制参数类型50b指定各种参数类型之一。声音生成控制参数包括声音生成控制参数的声音生成控制参数类型50b和值信息50c。在图9B所示的示例中,音节信息50a由以类似图3B所示的文本数据30的歌词c1、c2、c3和c41界定的音节构成。针对每个音节而将参数a、b、c和d中的一个或多个设定为声音生成控制参数类型50b。该类型的声音生成控制参数类型的具体示例是“和声(Harmonics)”、“亮度(Brightness)”、“共振(Resonance)”和“性别因子(GenderFactor)”。“和声”是改变包括在话音中的泛音成分的平衡的类型。“亮度”是通过呈现话音的对比度来给出乐音改变的类型的参数。“共振”是呈现浊音的音色和强度的类型的参数。“性别因子”是通过改变共振峰来改变女性或男性话音的厚度和纹理的类型的参数。值信息50c是用于设定声音生成控制参数的值的信息,并且包括“值v1”、“值v2”和“值v3”。“值v1”设定声音生成控制参数随着时间如何改变并且可以用曲线图形状(波形)表现。图10的部分(a)示出了由曲线图形状表示的“值v1”的示例。图10的部分(a)示出了作为“值v1”的曲线图形状w1至w6。曲线图形状w1至w6均具有随着时间而不同的改变。“值v1”不限于曲线图形状w1至w6。作为“值v1”,可以设定随着各个时间改变的曲线图形状(值)。“值v2”是用于在由如图10的部分(b)中所示的曲线图表示的“值v1”的横轴上设定时间的值。通过设定“值v2”,可以设定变为从效果开始到效果结束的时间的改变速度。“值v3”是用于设定由图10的部分(b)所示的曲线图形状表示的“值v1”的纵轴的幅度的值。通过设定“值v3”,可以设定表示有效程度的改变深度。根据值信息50c设定的声音生成控制参数的值的可设定范围根据声音生成控制参数类型而不同。这里,由音节信息50a指定的音节可以包括没有针对其而设定声音生成控制参数类型50b及其值信息50c的音节。例如,图11所示的音节c3不具有所设定的声音生成控制参数类型50b及其值信息50c。在用户演奏之前创建和/或编辑歌词信息表50中的音节信息50a、声音生成控制参数类型50b和值信息50c,并且将其存储在数据存储器18中。
描述返回至步骤S41。当第一键接通为n1时,CPU 10在步骤S40中获取音节c1。因此,在步骤S41中,CPU 10从歌词信息表50获取与音节c1相关联的声音生成控制参数类型和值信息50c。换言之,CPU 10获取在音节信息50a的c1的水平行中所设定的参数a和参数b作为声音生成控制参数50b,并且获取省略了其详细信息的说明的“值v1”至“值v3”作为值信息50c。在完成步骤S41的处理时,处理进行至步骤S42。在步骤S42中,CPU将光标前移至文本数据的下一音节,从而光标置于第二音节的c2上。在完成步骤S42的处理时,终止音节信息获取处理,并且该处理返回至键接通处理的步骤S12。在如上所述的步骤S12的音节信息获取处理中,从音素数据库32中选择用于生成所获取的音节c1的语音要素数据。接下来,在步骤S13的声音生成处理中,声音源13顺序地生成所选择的语音要素数据的声音。因此,生成了c1的音节。在声音生成时,以音高E5且以与在接收键接通n1时接收到的速度信息对应的音量生成音节c1的歌声。当完成了步骤S13的声音生成处理时,也终止键接通处理。
图11的部分(c)示出了钢琴条形谱52。在步骤S13的声音生成处理中,如钢琴条形谱52所示,声音源13以在检测到键接通n1时所接收到的音高E5生成所选择的语音要素数据。因此,生成了音节c1的歌声。在该声音生成时,根据以“值v1”、“值v2”和“值v3”设定的参数“a”以及以“值v1”、“值v2”和“值v3”设定的参数“b”这两种声音生成控制参数类型(即,两种不同模式)来执行对歌声的声音生成控制。因此,可以对要演唱的歌声的表现和声调、以及音质和音色进行改变,使得细微差别和声调附于歌声。
然后,当CPU 10随着实时演奏进行而检测键接通n2时,执行与上述处理相同的处理,并且以音高E5生成对应于键接通n2的第二音节c2。如图9的部分(b)中所示,作为声音生成控制参数类型50b,参数b、参数c和参数d这三种声音生成控制参数类型与音节c2相关联,并且以各个“值v1”、“值v2”和“值v3”设定每种声音生成控制参数类型。因此,当生成音节c2时,如图11的部分(c)中的钢琴条形谱52中所示,具有不同参数b、c和d的三种声音生成控制参数类型用于对歌声执行声音生成控制。这对要演唱的歌声的表现和声调、以及音质和音色给予改变。
当CPU 10随着实时演奏进行而检测到键接通n3时,执行与上述处理相同的处理,并且以音高D5生成对应于键接通n3的第三音节c3。如图9B所示,音节c3不具有所设定的声音生成控制参数类型50b。为此,当生成了音节c3时,如图11的部分(c)中的钢琴条形谱52所示,不执行根据声音生成控制参数对歌声的声音生成控制。
当CPU 10随着实时演奏进行而检测到键接通n4时,执行与上述处理相同的处理,并且以音高E5生成对应于键接通n4的第四音节c41。如图9B所示,当生成音节c41时,根据与音节c41相关联的声音生成控制参数类型50b(未示出)和值信息50c(未示出)来执行声音生成控制。
在根据上述第三实施例的声音生成设备200中,当用户使用诸如键盘等演奏操作器16来进行实时演奏时,每当执行按压演奏操作器16的操作时,以演奏操作器16的音高生成所指定的文本数据的音节。通过使用文本数据作为歌词来生成歌声。此时,根据与每个音节相关联的声音生成控制参数来执行声音生成控制。因此,可以对要演唱的歌声的表现和声调、以及音质和音色进行改变,使得细微差别和声调附于歌声。
如图3B所示,针对根据第三实施例的声音生成设备200中的歌词信息表50的音节信息50a由以歌词界定的音节的文本数据30及其分组信息31构成的情况来给出说明。在这种情况下,可以通过对演奏操作器16的一次连续操作来以演奏操作器16的音高发出所分组的音节的声音。即,响应于按压演奏操作器16,以演奏操作器16的音高生成第一音节。另外,根据从演奏操作器16移开的操作来以演奏操作器16的音高生成第二音节。此时,根据与每个音节相关联的声音生成控制参数执行声音生成控制。为此,可以对要演唱的歌声的表现和声调、以及音质和音色进行改变,使得细微差别和声调附于歌声。
第三实施例的声音生成设备200可以生成不具有第二实施例的声音生成设备100生成的上述歌词的预定声音。在由第三实施例的声音生成设备200生成不具有歌词的上述预定声音来代替根据音节信息确定要获取的声音生成控制参数的情况下,可以根据按键操作的次数来确定要获取的声音生成控制参数。
在第三实施例中,根据所操作的演奏操作器16(所按压的键)来指定音高。替选地,可以根据操作演奏操作器16的顺序来指定音高。
将描述第三实施例的第一变型示例。在该变型示例中,数据存储器18存储图12所示的歌词信息表50。歌词信息表50包括多条控制参数信息(控制参数的示例),即,第一至第n控制参数信息。例如,第一控制参数信息包括参数“a”与值v1至v3的组合以及参数“b”与值v1至v3的组合。多条控制参数信息分别与不同顺序相关联。例如,第一控制参数信息与第一顺序相关联。第二控制参数信息与第二顺序相关联。当检测到第一(第一次)键接通时,CPU10从歌词信息表50读取与第一顺序相关联的第一控制参数信息。声音源13以根据所读出的第一控制参数信息的模式输出声音。类似地,当检测到第n(第n次)键接通的键时,CPU 10从歌词信息表50读取与同第n顺序相关联的第n控制参数信息相关联的声音生成控制参数信息。声音源13以根据所读出的第n控制参数信息的模式输出声音。
将描述第三实施例的第二变型。在该变型示例中,数据存储器18存储图13所示的歌词信息表50。歌词信息表50包括多条控制参数信息。多条控制参数信息分别与不同音高相关联。例如,第一控制参数信息与音高A5相关联。第二控制参数信息与音高B5相关联。当检测到对应于音高A5的键的键接通时,CPU 10从数据存储器18读出与音高A5相关联的第一参数信息。声音源13以根据所读出的第一控制参数信息的模式、以音高A5输出声音。类似地,当检测到对应于音高B5的键的键接通时,CPU 10从数据存储器18读出与音高B5相关联的第二控制参数信息。声音源13以根据所读出的第二控制参数信息的模式、以音高B5输出声音。
将描述第三实施例的第三变型示例。在该变型示例中,数据存储器18存储图14所示的文本数据30。文本数据包括多个音节,即,第一音节“i”、第二音节“ro”和第三音节“ha”。以下,“i”、“ro”和“ha”均表示日语平假名中的一个字母,其是音节的示例。第一音节“i”与第一顺序相关联。第二音节“ro”与第二顺序相关联。第三音节“ha”与第三顺序相关联。数据存储器18还存储图15所示的歌词信息表50。歌词信息表50包括多条控制参数信息。多条控制参数信息分别与不同音节相关联。例如,第二控制参数信息与音节“i”相关联。第二十六控制参数信息(未示出)与音节“ha”相关联。第45控制参数信息与“ro”相关联。当检测到第一(第一次)键接通时,CPU 10从文本数据30中读取与第一顺序相关联的“i”。另外,CPU 10从歌词信息表50中读取与“i”相关联的第二控制参数信息。声音源13以根据所读出的第二控制参数信息的模式输出表示“i”的歌声。类似地,当检测到第二(第二次)键接通时,CPU 10从文本数据30中读出与第二顺序相关联的“ro”。另外,CPU 10从歌词信息表50中读出与“ro”相关联的第45控制参数信息。声音源13以根据第45控制参数信息的模式输出表示“ro”的歌声。
工业应用性
代替根据上述的本发明的实施例的键接通声音生成信息包括在音节信息中,其可以与音节信息单独地存储。在这种情况下,键断开声音生成信息可以是描述在按压键时执行了键断开声音生成多少次的数据。键断开声音生成信息可以是在演奏时根据用户的指令实时生成的信息。例如,仅当用户在用户按压键的同时踏上踏板时,可以对该音符执行声音键断开。可以仅当按压键的持续时间超过预定长度时执行键断开声音生成。此外,可以当按键速度超过预定值时执行键断开声音生成。
根据上述的本发明的实施例的声音生成设备可以生成具有歌词或不具有歌词的歌声,并且可以生成不具有歌词的预定声音,诸如乐器声音或音效声音。另外,根据本发明的实施例的声音生成设备可以生成包括歌声的预定声音。
当在根据以上说明的本发明的实施例的声音生成设备中生成歌词时,通过将日语作为示例来进行说明,其中歌词几乎始终都是一个音节。然而,本发明的实施例不限于这样的情况。可以针对每个音节来界定一个字符不成为一个音节的其他语言的歌词,并且可以通过如上所述那样利用根据本发明的实施例的声音生成设备生成声音来演唱其他语言的歌词。
另外,在根据上述的本发明的实施例的声音生成设备中,可以准备演奏数据生成装置来代替演奏操作器,并且可以从演奏数据生成装置向声音生成设备顺序地给出演奏信息。
可以通过将用于实现根据上述实施例的歌声声音生成设备1、100、200的功能的程序记录在计算机可读记录介质中、并且将记录在该记录介质上的程序读取到计算机系统中并执行该程序来执行处理。
这里所提及的“计算机系统”可以包括诸如操作系统(OS)和外围装置的硬件。
“计算机可读记录介质”可以是可写入非易失性存储器(诸如软盘、磁光盘、ROM(只读存储器)或闪速存储器)、便携式介质(诸如DVD(数字通用盘))、或者存储装置(诸如内置于计算机系统中的硬盘)。
“计算机可读记录介质”还包括如下介质:当经由诸如互联网的网络或诸如电话线路的通信线路传送程序时,其在特定的时间段内将程序保存在用作服务器或客户端的计算机系统中,比如易失性存储器(例如,DRAM(动态随机存取存储器))。
上述程序可以经由传输介质或者通过传输介质中的传输波从其中程序存储在存储装置等中的计算机系统传送到另一计算机系统。用于传送程序的“传输介质”是指具有传送信息的功能的介质,诸如例如互联网的网络(通信网络)以及诸如电话线路的电信线路(通信线路)。
上述程序可以用于实现上述功能中的一部分。
上述程序可以是所谓的差异文件(差异程序),其可以通过与已记录在计算机系统中的程序的组合来实现上述功能。
附图标记
1、100、200 声音生成设备
10 CPU
11 ROM
12 RAM
13 声音源
14 声音系统
15 显示单元
16 演奏操作器
17 设定操作器
18 数据存储器
19 总线
30 文本数据
31 分组信息
32 音素数据库
32a 音素链数据
32b 固定部分数据
40 键断开声音生成信息
41 钢琴条形谱
50 歌词信息表
50a 音节信息
50b 声音生成控制参数类型
50c 值信息
52 钢琴条形谱

Claims (19)

1.一种声音控制装置,包括:
接收单元,其接收指示开始输出声音的开始指令;
读取单元,其响应于接收到所述开始指令,读取确定所述声音的输出模式的控制参数;以及
控制单元,其使得所述声音以根据所读取的控制参数的模式输出。
2.根据权利要求1所述的声音控制装置,还包括:
存储单元,其存储指示音节的音节信息和与所述音节信息相关联的所述控制参数,
其中,所述读取单元从所述存储单元读取所述音节信息和所述控制参数,并且
所述控制单元使得指示所述音节的歌声以根据所读取的控制参数的模式作为所述声音输出。
3.根据权利要求2所述的声音控制装置,其中,所述控制单元使得所述歌声以根据所述控制参数的模式且以特定音高输出。
4.根据权利要求2所述的声音控制装置,其中,所述音节是一个或多个字符。
5.根据权利要求4所述的声音控制装置,其中,所述一个或多个字符是日语假名。
6.根据权利要求1所述的声音控制装置,还包括:
存储单元,其存储分别与相互不同的多种顺序相关联的多个控制参数,
其中,所述接收单元顺序地接受包括所述开始指令的多个开始指令,并且
所述读取单元从所述存储单元读取所述多个控制参数当中的与接收所述开始指令的顺序相关联的控制参数,作为所述控制参数。
7.根据权利要求1所述的声音控制装置,还包括:
存储单元,其存储分别与相互不同的多个音高相关联的多个控制参数,
其中,所述开始指令包括指示音高的音高信息,
所述读取单元从所述存储单元读取所述多个控制参数当中的与由所述音高信息指示的音高相关联的控制参数,作为所述控制参数,并且
所述控制单元使得所述声音以根据所述控制参数的模式且以所述音高输出。
8.根据权利要求1所述的声音控制装置,还包括:
多个操作器,其接收用户的操作,并且分别与相互不同的多个音高相关联,
其中,所述接收单元在接收用户对于所述多个操作器中的任一个操作器的操作时确定所述开始指令已被接受,并且
所述控制单元使得所述声音以根据所读取的控制参数的模式且以与所述一个操作器相关联的音高输出。
9.根据权利要求1所述的声音控制装置,还包括:
存储单元,其存储分别与相互不同的多个声音相关联的多个控制参数,
其中,所述读取单元从所述存储单元读取所述多个控制参数当中的与所述声音相关联的控制参数,作为所述控制参数。
10.根据权利要求1所述的声音控制装置,还包括:
存储单元,其存储相互不同的多个声音以及分别与所述多个声音相关联的多个控制参数,
其中,所述读取单元从所述存储单元读取所述多个控制参数当中的与所述声音相关联的控制参数,作为所述控制参数。
11.根据权利要求1所述的声音控制装置,还包括:
存储单元,其存储与相互不同的多种顺序相关联的多个声音以及分别与所述多个声音相关联的多个控制参数,
其中,所述接收单元顺序地接收包括所述开始指令的多个开始指令,
所述读取单元从所述存储单元读取所述多个声音当中的与接收所述开始指令的顺序相关联的声音作为所述声音,并且
所述读取单元从所述存储单元读取所述多个控制参数当中的与所述声音相关联的控制参数,作为所述控制参数。
12.根据权利要求9至11中任一项所述的声音控制装置,其中,所述控制单元使得指示音节、字符或日语假名的歌声作为所述声音输出。
13.根据权利要求1所述的声音控制装置,其中,所述控制参数是可编辑的。
14.根据权利要求1所述的声音控制装置,
其中,所述控制参数包括各自不同类型的第一控制参数和第二控制参数,
所述控制单元使得所述声音以根据所述第一控制参数的第一模式输出,并且同时使得所述声音以根据所述第二控制参数的第二模式输出,并且
所述第一模式和所述第二模式彼此不同。
15.根据权利要求1所述的声音控制装置,其中,所述控制参数包括指示声音改变类型的信息。
16.根据权利要求15所述的声音控制装置,
其中,所述声音改变类型是如下类型之一:
改变包括在语音中的泛音成分的平衡的类型,
通过呈现语音的对比度来给出音高改变的类型,
呈现浊音的音色和强度的类型,以及
通过改变共振峰来改变女性或男性语音的厚度和纹理的类型。
17.根据权利要求15或16所述的声音控制装置,其中,所述控制参数还包括指示声音如何改变的值、指示声音的改变幅度的值以及指示声音的改变深度的值。
18.一种声音控制方法,包括:
接收指示开始输出声音的开始指令;
响应于接收到所述开始指令,读取确定所述声音的输出模式的控制参数;以及
使得所述声音以根据所读取的控制参数的模式输出。
19.一种声音控制程序,使得计算机执行如下操作:
接收指示开始输出声音的开始指令;
响应于接收到所述开始指令,读取确定所述声音的输出模式的控制参数;以及
使得所述声音以根据所读取的控制参数的模式输出。
CN201680016405.1A 2015-03-20 2016-03-17 声音控制装置、声音控制方法和存储声音控制程序的计算机可读记录介质 Active CN107430849B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015-057946 2015-03-20
JP2015057946 2015-03-20
PCT/JP2016/058490 WO2016152715A1 (ja) 2015-03-20 2016-03-17 音制御装置、音制御方法、および音制御プログラム

Publications (2)

Publication Number Publication Date
CN107430849A true CN107430849A (zh) 2017-12-01
CN107430849B CN107430849B (zh) 2021-02-23

Family

ID=56977484

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201680016405.1A Active CN107430849B (zh) 2015-03-20 2016-03-17 声音控制装置、声音控制方法和存储声音控制程序的计算机可读记录介质

Country Status (5)

Country Link
US (1) US10354629B2 (zh)
EP (1) EP3273441B1 (zh)
JP (1) JP6728754B2 (zh)
CN (1) CN107430849B (zh)
WO (1) WO2016152715A1 (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320741A (zh) * 2018-01-15 2018-07-24 珠海格力电器股份有限公司 智能设备的声音控制方法、装置、存储介质和处理器
CN111656434A (zh) * 2018-02-14 2020-09-11 雅马哈株式会社 音响参数调整装置、音响参数调整方法及音响参数调整程序
US20200372896A1 (en) * 2018-07-05 2020-11-26 Tencent Technology (Shenzhen) Company Limited Audio synthesizing method, storage medium and computer equipment
CN113496689A (zh) * 2020-03-18 2021-10-12 雅马哈株式会社 参数控制装置、参数控制方法及程序
CN113506554A (zh) * 2020-03-23 2021-10-15 卡西欧计算机株式会社 电子乐器、电子乐器的控制方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6828530B2 (ja) * 2017-03-14 2021-02-10 ヤマハ株式会社 発音装置及び発音制御方法
WO2019003348A1 (ja) * 2017-06-28 2019-01-03 ヤマハ株式会社 歌唱音効果生成装置及び方法、プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1436345A (zh) * 2000-06-12 2003-08-13 雅马哈株式会社 终端装置、引导声音再现方法和存储介质
US20060085197A1 (en) * 2000-12-28 2006-04-20 Yamaha Corporation Singing voice-synthesizing method and apparatus and storage medium
JP2008095588A (ja) * 2006-10-11 2008-04-24 Sanden Corp スクロール圧縮機
JP2010031496A (ja) * 2008-07-28 2010-02-12 Sanwa Shutter Corp すべり出し窓の開閉装置
CN101923794A (zh) * 2009-11-04 2010-12-22 陈学煌 多功能音准练习机
CN102682762A (zh) * 2011-03-15 2012-09-19 新加坡科技研究局 和声合成器及声音信号的和声方法
CN103165115A (zh) * 2011-12-09 2013-06-19 雅马哈株式会社 声音数据处理装置及方法
CN103207682A (zh) * 2011-12-19 2013-07-17 国家电网公司 基于音节切分的维哈柯文智能输入法
CN103514874A (zh) * 2012-06-27 2014-01-15 雅马哈株式会社 声音合成方法和声音合成设备
JP2014089475A (ja) * 2014-01-15 2014-05-15 Yamaha Corp 音声合成装置およびプログラム
CN103810992A (zh) * 2012-11-14 2014-05-21 雅马哈株式会社 语音合成方法和语音合成设备

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2800465B2 (ja) * 1991-05-27 1998-09-21 ヤマハ株式会社 電子楽器
JPH0895588A (ja) * 1994-09-27 1996-04-12 Victor Co Of Japan Ltd 音声合成装置
JPH1031496A (ja) * 1996-07-15 1998-02-03 Casio Comput Co Ltd 楽音発生装置
US5998725A (en) * 1996-07-23 1999-12-07 Yamaha Corporation Musical sound synthesizer and storage medium therefor
JP2000105595A (ja) * 1998-09-30 2000-04-11 Victor Co Of Japan Ltd 歌唱装置及び記録媒体
JP2000330584A (ja) * 1999-05-19 2000-11-30 Toppan Printing Co Ltd 音声合成装置および音声合成方法、ならびに音声通信装置
JP3815347B2 (ja) * 2002-02-27 2006-08-30 ヤマハ株式会社 歌唱合成方法と装置及び記録媒体
JP4153220B2 (ja) * 2002-02-28 2008-09-24 ヤマハ株式会社 歌唱合成装置、歌唱合成方法及び歌唱合成用プログラム
JP4300764B2 (ja) * 2002-07-26 2009-07-22 ヤマハ株式会社 歌唱音声を合成する方法および装置
JP3938015B2 (ja) * 2002-11-19 2007-06-27 ヤマハ株式会社 音声再生装置
JP3823930B2 (ja) * 2003-03-03 2006-09-20 ヤマハ株式会社 歌唱合成装置、歌唱合成プログラム
JP4483188B2 (ja) * 2003-03-20 2010-06-16 ソニー株式会社 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置
JP2004287099A (ja) * 2003-03-20 2004-10-14 Sony Corp 歌声合成方法、歌声合成装置、プログラム及び記録媒体並びにロボット装置
JP3864918B2 (ja) * 2003-03-20 2007-01-10 ソニー株式会社 歌声合成方法及び装置
JP3858842B2 (ja) * 2003-03-20 2006-12-20 ソニー株式会社 歌声合成方法及び装置
JP4858173B2 (ja) * 2007-01-05 2012-01-18 ヤマハ株式会社 歌唱音合成装置およびプログラム
US8244546B2 (en) * 2008-05-28 2012-08-14 National Institute Of Advanced Industrial Science And Technology Singing synthesis parameter data estimation system
GB2500471B (en) * 2010-07-20 2018-06-13 Aist System and method for singing synthesis capable of reflecting voice timbre changes
US8653354B1 (en) * 2011-08-02 2014-02-18 Sonivoz, L.P. Audio synthesizing systems and methods
JP6136202B2 (ja) * 2011-12-21 2017-05-31 ヤマハ株式会社 音楽データ編集装置および音楽データ編集方法
JP5943618B2 (ja) 2012-01-25 2016-07-05 ヤマハ株式会社 音符列設定装置および音符列設定方法
US9012756B1 (en) * 2012-11-15 2015-04-21 Gerald Goldman Apparatus and method for producing vocal sounds for accompaniment with musical instruments
JP6083764B2 (ja) * 2012-12-04 2017-02-22 国立研究開発法人産業技術総合研究所 歌声合成システム及び歌声合成方法
JP5949607B2 (ja) * 2013-03-15 2016-07-13 ヤマハ株式会社 音声合成装置
EP3159892B1 (en) * 2014-06-17 2020-02-12 Yamaha Corporation Controller and system for voice generation based on characters
JP6645063B2 (ja) * 2014-07-29 2020-02-12 ヤマハ株式会社 ターゲット文字列の推定
JP2016080827A (ja) * 2014-10-15 2016-05-16 ヤマハ株式会社 音韻情報合成装置および音声合成装置
JP6728754B2 (ja) * 2015-03-20 2020-07-22 ヤマハ株式会社 発音装置、発音方法および発音プログラム
JP6728755B2 (ja) * 2015-03-25 2020-07-22 ヤマハ株式会社 歌唱音発音装置
JP6620462B2 (ja) * 2015-08-21 2019-12-18 ヤマハ株式会社 合成音声編集装置、合成音声編集方法およびプログラム
JP6759545B2 (ja) * 2015-09-15 2020-09-23 ヤマハ株式会社 評価装置およびプログラム
JP6705142B2 (ja) * 2015-09-17 2020-06-03 ヤマハ株式会社 音質判定装置及びプログラム
JP6690181B2 (ja) * 2015-10-22 2020-04-28 ヤマハ株式会社 楽音評価装置及び評価基準生成装置
US10134374B2 (en) * 2016-11-02 2018-11-20 Yamaha Corporation Signal processing method and signal processing apparatus

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1436345A (zh) * 2000-06-12 2003-08-13 雅马哈株式会社 终端装置、引导声音再现方法和存储介质
US20060085197A1 (en) * 2000-12-28 2006-04-20 Yamaha Corporation Singing voice-synthesizing method and apparatus and storage medium
JP2008095588A (ja) * 2006-10-11 2008-04-24 Sanden Corp スクロール圧縮機
JP2010031496A (ja) * 2008-07-28 2010-02-12 Sanwa Shutter Corp すべり出し窓の開閉装置
CN101923794A (zh) * 2009-11-04 2010-12-22 陈学煌 多功能音准练习机
CN102682762A (zh) * 2011-03-15 2012-09-19 新加坡科技研究局 和声合成器及声音信号的和声方法
CN103165115A (zh) * 2011-12-09 2013-06-19 雅马哈株式会社 声音数据处理装置及方法
CN103207682A (zh) * 2011-12-19 2013-07-17 国家电网公司 基于音节切分的维哈柯文智能输入法
CN103514874A (zh) * 2012-06-27 2014-01-15 雅马哈株式会社 声音合成方法和声音合成设备
CN103810992A (zh) * 2012-11-14 2014-05-21 雅马哈株式会社 语音合成方法和语音合成设备
JP2014089475A (ja) * 2014-01-15 2014-05-15 Yamaha Corp 音声合成装置およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LEONARDO ALFREDO FORERO MENDOZA等: "Classification of voice aging using ANN and glottal signal parameters", 《2010 IEEE ANDESCON》 *
高雪松: "基于MIDI的乐器控制系统和音符的自动识别方法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108320741A (zh) * 2018-01-15 2018-07-24 珠海格力电器股份有限公司 智能设备的声音控制方法、装置、存储介质和处理器
CN111656434A (zh) * 2018-02-14 2020-09-11 雅马哈株式会社 音响参数调整装置、音响参数调整方法及音响参数调整程序
CN111656434B (zh) * 2018-02-14 2023-08-04 雅马哈株式会社 音响参数调整装置、音响参数调整方法及记录介质
US20200372896A1 (en) * 2018-07-05 2020-11-26 Tencent Technology (Shenzhen) Company Limited Audio synthesizing method, storage medium and computer equipment
CN113496689A (zh) * 2020-03-18 2021-10-12 雅马哈株式会社 参数控制装置、参数控制方法及程序
CN113496689B (zh) * 2020-03-18 2023-12-05 雅马哈株式会社 参数控制装置、参数控制方法及存储装置
CN113506554A (zh) * 2020-03-23 2021-10-15 卡西欧计算机株式会社 电子乐器、电子乐器的控制方法

Also Published As

Publication number Publication date
US20180005617A1 (en) 2018-01-04
CN107430849B (zh) 2021-02-23
EP3273441A1 (en) 2018-01-24
EP3273441A4 (en) 2018-11-14
JP2016177276A (ja) 2016-10-06
US10354629B2 (en) 2019-07-16
JP6728754B2 (ja) 2020-07-22
EP3273441B1 (en) 2020-08-19
WO2016152715A1 (ja) 2016-09-29

Similar Documents

Publication Publication Date Title
CN107430849A (zh) 声音控制装置、声音控制方法和声音控制程序
US7094962B2 (en) Score data display/editing apparatus and program
KR20180063163A (ko) 언어 및/또는 그래픽 아이콘 기반 음악적 경험 디스크립터를 채택한 자동화된 음악 작곡 및 생성 기계, 시스템 및 프로세스
JP2008164932A (ja) 音楽編集装置および方法、並びに、プログラム
JP2000194360A (ja) 音の電子的発生方法及び装置
CN104050961A (zh) 语音合成装置和方法以及存储有语音合成程序的记录介质
JP6784022B2 (ja) 音声合成方法、音声合成制御方法、音声合成装置、音声合成制御装置およびプログラム
JP5974436B2 (ja) 楽曲生成装置
Huang et al. A Research of Automatic Composition and Singing Voice Synthesis System for Taiwanese Popular Songs
JPH11184490A (ja) 規則音声合成による歌声合成方法
JP3646680B2 (ja) 作詞作曲装置及びプログラム
WO2020217801A1 (ja) オーディオ情報再生方法および装置、オーディオ情報生成方法および装置、並びにプログラム
JP2001042879A (ja) カラオケ装置
JP2006259768A (ja) スコアデータ表示装置およびプログラム
JP7456430B2 (ja) 情報処理装置、電子楽器システム、電子楽器、音節進行制御方法及びプログラム
JP6787491B2 (ja) 音発生装置及び方法
JP7158331B2 (ja) カラオケ装置
WO2016152708A1 (ja) 音制御装置、音制御方法、および音制御プログラム
US20230244646A1 (en) Information processing method and information processing system
JP2018151548A (ja) 発音装置及びループ区間設定方法
JP5598056B2 (ja) カラオケ装置およびカラオケ曲紹介プログラム
JP4033146B2 (ja) カラオケ装置
JP4432834B2 (ja) 歌唱合成装置および歌唱合成プログラム
WO2004025306A1 (en) Computer-generated expression in music production
Anderson The Conductor's Role in Electro-Acoustic Orchestral Music: Performance Practice Problems in Kaija Saariaho's Verblendungen

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant