CN103165115A - 声音数据处理装置及方法 - Google Patents

声音数据处理装置及方法 Download PDF

Info

Publication number
CN103165115A
CN103165115A CN2012105289004A CN201210528900A CN103165115A CN 103165115 A CN103165115 A CN 103165115A CN 2012105289004 A CN2012105289004 A CN 2012105289004A CN 201210528900 A CN201210528900 A CN 201210528900A CN 103165115 A CN103165115 A CN 103165115A
Authority
CN
China
Prior art keywords
parts
pattern
performance
performance data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012105289004A
Other languages
English (en)
Other versions
CN103165115B (zh
Inventor
渡边大地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN103165115A publication Critical patent/CN103165115A/zh
Application granted granted Critical
Publication of CN103165115B publication Critical patent/CN103165115B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/02Instruments in which the tones are synthesised from a data store, e.g. computer organs in which amplitudes at successive sample points of a tone waveform are stored in one or more memories
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

声音数据处理装置及方法。针对多个演奏部件中的每一个,数据库存储多个演奏数据。针对每个部件的部件演奏数据包括声音生成模式及与所述声音生成模式对应的乐音数据。用户输入表示要作为搜索目标的声音生成模式的查询模式。在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据。响应于用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据,指令所识别的部件演奏数据的声音生成模式用作新的查询模式。然后在数据库中进一步搜索包括与新查询模式匹配的声音生成模式的部件演奏数据。根据用户的操作,从搜出结果中识别一个部件演奏数据,并编辑所识别的部件演奏数据。编辑后的数据登记到数据库中作为新的部件演奏数据。

Description

声音数据处理装置及方法
技术领域
本发明涉及用于基于演奏操作等处理声音数据的声音数据处理
装置及方法,以及使得计算机用作这种声音数据处理装置的程序。
背景技术
迄今已知对从多个不同的伴奏声源提取的多个伴奏声音波形进行组合、并再现组合的伴奏声音波形的技术。例如,日本专利第2550825号(下文称作“专利文献1”)公开了允许用户基于多个演奏部件的伴奏模式的合奏、通过输入文本(字符串和逻辑运算符)搜索多个伴奏部件中每一个的伴奏模式(声音生成模式)、然后对各个演奏部件的搜出伴奏模式(声音生成模式)进行组合以执行自动伴奏的技术。此外,日本专利第3480433号(下文称作“专利文献2”)公开了在多音轨数字记录/再现设备中允许自由设置特定数量的记录音轨、并且允许根据特定数量的记录音轨的设置通过最大数量的可使用再现音轨来执行再现的技术。
不过,利用专利文献1公开的搜索方法,其中用户通过输入文本搜索伴奏模式,则用户无法直观且在感觉上输入节奏或旋律模式。如果在搜索伴奏声源时允许用户直观输入作为搜索目标的节奏或旋律模式,则该搜索方法可以为用户提供更好的可操作性。
发明内容
鉴于上述现有技术中的问题,本发明试图不仅提供改进的演奏数据搜索技术,还能够便于基于搜索创建新的演奏数据。
为了实现上述目的,本发明提供了一种改进的声音数据处理装置,其针对多个演奏部件中的每一个,在存储了多个演奏部件的部件演奏数据的数据库中搜索特定的部件演奏数据,所述针对每个演奏部件的部件演奏数据包括声音生成模式以及与所述声音生成模式对应的乐音数据,所述声音数据处理装置包括:查询获取部分,其配置为获取查询模式,所述查询模式表示要作为搜索目标的声音生成模式;搜索部分,其配置为在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据;和搜索指令部分,其配置为响应于用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据,并且指令所述搜索部件将所识别的部件演奏数据的声音生成模式用作新的查询模式来执行搜索。
根据本发明,通过输入要作为搜索目标的期望声音生成模式来作为查询模式,用户能够容易地通过感觉操作输入搜索查询,此外用户还能够获得与他或她的感觉相符的期望搜出结果。本发明还构建为允许用户指示使用从搜出结果中识别的部件演奏数据的声音生成模式作为新的查询模式来执行进一步搜索(重新搜索)。于是,在类似用户未精确输入查询模式的情况下,可以将精确的声音生成模式用作重新搜索的查询模式。因此可以使得用户执行的搜索输入操作更容易。
在一个实施例中,声音数据处理装置还包括编辑部分,其配置为根据用户的操作对识别的部件演奏数据进行编辑。在这种情况下,搜索指令部分可以指令搜索部分将通过编辑部分编辑后的部件演奏数据的声音生成模式用作新的查询模式来执行搜索。通过编辑部分编辑的部件演奏数据可以登记到数据库中作为新的部件演奏数据。通过这种方式方便了新的部件演奏数据的创建。
在一个实施例中,声音数据处理装置还包括存储器,其配置为在其中存储与正在处理的一组演奏数据相关的数据,所述一组演奏数据包括多个演奏部件的部件演奏数据。响应于用户操作从搜出结果中识别的一个部件演奏数据存储到存储器中作为所述一组演奏数据中一个演奏部件的部件演奏数据。在这种情况下,将存储在存储器中的所述一组演奏数据中全部演奏部件的部件演奏数据调整为在拍速或小节的时间长度上彼此同步。通过这种方式,能够容易地创建包括基于搜索选择的多个演奏部件的部件演奏数据的组合的一组演奏数据。所创建的一组演奏数据可以登记到数据库中。
在一个实施例中,数据库还在其中存储识别多组演奏数据中每一组的信息,其中每组演奏数据包括多个演奏部件的部件演奏数据。此外,搜索部分从数据库中搜索包括与查询模式匹配的声音生成模式的部件演奏数据,并且列出包括搜出的部件演奏数据的一组或多组演奏数据,所述搜索指令部分响应于用户操作在通过搜索部分列出的一组或多组演奏数据的任一组演奏数据中识别一个部件演奏数据。在这种情况下,声音数据处理装置还包括配置为在其中存储与正在处理的一组演奏数据相关的数据的存储器,所述通过搜索部分列出的一组或多组演奏数据的任一组演奏数据可以存储到存储器中。
声音数据处理装置还包括编辑部分,其配置为根据用户操作对存储在存储器中的一组演奏数据以及在所述一组演奏数据中选择的部件演奏数据进行编辑,在这种情况下,存储器的存储内容根据编辑部分的编辑进行更新。于是能够通过对基于搜索选择的一组演奏数据进行编辑来容易地创建一组新的演奏数据。所创建的一组演奏数据可以登记到数据库中。
根据本发明的另一方面,提供了一种改进的声音数据处理装置,其针对多个演奏部件中的每一个,在存储了多个演奏部件的部件演奏数据的数据库中搜索特定的部件演奏数据并且编辑所述特定的部件演奏数据,所述针对每个演奏部件的部件演奏数据包括声音生成模式以及与所述声音生成模式对应的乐音数据,所述声音数据处理装置包括:查询获取部分,其配置为获取查询模式,所述查询模式表示要作为搜索目标的声音生成模式;搜索部分,其配置为在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据;和编辑部分,其配置为根据用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据,并且编辑所识别的部件演奏数据。利用这种构造,能够通过对从搜出结果中识别的部件演奏数据进行编辑来创建新的用户期望的部件演奏数据。
本发明还构建和实现为不仅作为上述产品发明,还可以作为方法发明。此外,本发明可以设置和实现为通过处理器(如计算机或DSP)运行的软件程序,以及作为存储这种软件程序的非暂态存储介质。在这种情况下,可以将存储介质中的程序提供给用户并且随后安装在用户的计算机中,或者从服务器装置通过通信网络传送至客户端计算机并且随后安装到客户计算机中。此外,本发明中所使用的处理器可以包括在硬件上置入专用逻辑的专用处理器,以及能够运行期望软件程序的计算机或其它通用处理器。
下面将对本发明的实施例进行说明,但应对理解,本发明不限于上述实施例,在不偏离基本原则的情况下本发明具有各种变型。本发明的范围因此仅由所附权利要求限定。
附图说明
下面参照附图仅以示例的形式对本发明的特定优选实施例进行详细说明,附图中:
图1是示出了根据本发明的第一实施例的系统的总体配置的示意图;
图2是本发明的第一实施例的系统中提供的节奏输入装置的示意图;
图3是示出了本发明的第一实施例的系统中提供的信息处理装置的示例硬件配置的框图;
图4A至图4C是示出了本发明第一实施例中的自动伴奏数据库中包含的表格的示例内容的示意图;
图5A和图5B是示出了本发明第一实施例中采用的伴奏数据库中所包含的表格的内容的示意图;
图6是本发明第一实施例中的信息处理装置以及信息处理装置周围的其他组件的功能布置的框图;
图7是示出了本发明第一实施例中的信息处理装置所执行的处理的示例操作序列的流程图;
图8是示出了本发明第一实施例中执行的搜索处理的示例操作序列的流程图;
图9A至图9C是示出了本发明第一实施例中ON-设定时刻间隔的分布表格的示图;
图10是本发明第一实施例中计算节奏模式之间的差异的说明的示意图;
图11是示出了本发明第一实施例中自动伴奏数据的搜出结果示例的示意图;
图12是本发明第一实施例中BPM同步处理的说明的示意图;
图13是示出了本发明第一实施例中基调表格示例的示图;
图14是本发明第一实施例中在循环再现模式下执行的处理的说明的示意图;
图15是本发明第一实施例中在演奏再现模式下执行的处理的说明的示意图;
图16A是示出了本发明第一实施例中与风格数据相关的表格的示例的示图;
图16B是示出了本发明第一实施例中与风格数据相关的表格的示例的示图;
图17是本发明第二实施例中的信息处理装置所执行的处理的流程图;
图18A至18C是示出了本发明第二实施例中风格数据的搜出结果的示例的示意图;
图19是示出了本发明第二实施例中风格数据的配置显示屏的示例的示图;
图20是示出了其中向乐音数据组的各个组成音符施加了渐弱效果的示例的示意图;
图21是示出了ON-设定时刻间隔表格的示例的示图;
图22是示出了距离基准表格的示例的示图;
图23是示出了ON-设定时刻表格的示例的示图;
图24A和图24B是利用乐音音高模式的搜索处理的示意性说明图;
图25是用于搜索多个小节的节奏模式的处理的示意性说明图;
图26是示出了移动通信终端的示图;
图27是示出了第三实施例的功能布置的框图;
图28是示出了第三实施例中采用的UI屏幕示例的示图;
图29是示出了第三实施例中执行的处理的流程图;
图30是示出了音序器区域中显示的输入屏幕示例的示图;
图31是示出了音序器区域中显示的输入屏幕的另一示例的示图;和
图32是示出了本发明的一个变型中的UI示例的示图。
具体实施方式
下面对本发明的实施例进行说明。
1.第一实施例
<音乐数据创建系统>
本发明的第一实施例是作为音乐数据处理系统的示例的一种音乐数据创建系统。在该实施例中,将自动伴奏数据读入电子乐器、音序器等,从而实现与所谓MIDI自动伴奏数据相似的功能。
1-1.构造
图1是示出了根据本发明的第一实施例的音乐数据创建系统100的整体配置的示意图。音乐数据创建系统100包括节奏输入装置10和信息处理装置(声音数据处理装置)20,并且节奏输入装置10和信息处理装置(声音数据处理装置)20通过通信线路可通信地互连。节奏输入装置10和信息处理装置20之间的通信可以以无线方式实现。在第一实施例中,节奏输入装置10包括例如用作输入装置的键盘和电子输入板。响应于用户按下在节奏输入装置10中提供的键盘上的按键的操作,节奏输入装置10将表示键盘上的任一键被按下(即用户已经执行了演奏操作)的触发数据和表示按下键的强度(即演奏操作的强度)的速度数据输入至信息处理装置20。节奏输入装置10以小节(measure)作为输入单位来将这种触发数据和速度数据输入至信息处理装置20。每当用户按下键盘上的按键时生成的一项触发数据由表示该按键被按下的接通(key-on)信息代表。一个速度数据与每个触发数据相关联。在每个小节内生成的一组触发数据和速度数据代表用户使用节奏输入装置10输入的节奏模式(下文中有时称为“输入节奏模式”)。用户输入这种对应于(或分配到)键盘的各个按键范围的演奏部件的节奏模式。此外,对于打击乐器的演奏部件,用户使用任意一个输入板来输入节奏模式。也即,节奏输入装置10是由用户输入演奏操作的输入装置的示例。此外,节奏输入装置10也用作操作装置,用于由用户输入期望的乐音生成模式作为搜索查询模式。
信息处理装置20是例如PC(个人计算机)。信息处理装置20包括数据库以及使用该数据库的应用程序,该数据库含有多个自动伴奏数据组、将被用于构成所述自动伴奏数据组的各个演奏部件的多个乐音数据组(声音波形数据组)。该应用程序包括用于基于搜索乐音数据组(即在这种情况下,输入节奏模式为搜索基调)的节奏模式输入来选择演奏部件的选择功能,以及用于对正在创建或已经创建的自动伴奏数据进行再现的再现功能。每个自动伴奏数据组包括多个不同演奏部件的组合,如贝司、和弦、包括单独音符的时间序列的旋律乐句(即基于单音符的乐句)、低音鼓、小鼓、踩镲和钹,其各自具有独特的节奏模式。更具体来说,这些数据组包括自动伴奏数据表格和定义在自动伴奏数据表格中的各种文件,例如节奏模式数据(例如文本格式的数据)的文件和乐音数据(如WAVE格式的数据,即声音波形数据)。包括演奏部件的数据的每个乐音数据组都是一组表示具有单个音色和预定长度(例如二、四或八小节)的演奏声音波形的声音波形数据,并且以诸如WAVE或mp3(MPEG音频层面3)格式的文件格式进行记录。注意,上述数据库还已经在其中记录了当前未在任一自动伴奏数据组中使用并且可以用于对构成现有的一组自动伴奏数据(自动伴奏数据组)的多个演奏部件中的任一个的乐音数据组(声音波形数据组)进行替换的乐音数据组(声音波形数据组)。
更具体来说,信息处理装置20针对用户指定的演奏部件,通过选择功能从数据库中搜索节奏模式与用户通过节奏模式装置10输入的节奏模式(查询模式)相同或相似的乐音数据组(声音波形数据组),然后显示具有搜出结果(即搜出的乐音数据组)的自动伴奏数据组的名称等的列表。然后,信息处理装置20基于用户从显示列表中选择的自动伴奏数据组可听地输出乐音(或声音)。此时,信息处理装置20基于用户选择的搜出自动伴奏数据组重复地再现乐音(或声音)。即,针对多个演奏部件中的任一个基于用户输入的节奏模式来搜索自动伴奏数据组,然后用户选择一个搜出的自动伴奏数据组,信息处理装置20基于用户选择的自动伴奏数据组再现演奏声音。如果已经选择了任一演奏部件,则信息处理装置20在按需加快或减缓拍速之后执行再现,以使得演奏部件与所选择的演奏部件以预定定时(如节拍定时)同步。即,在音乐数据创建系统100中,由用户选择多个不同的演奏部件,然后用户针对所选择的演奏部件中的每一个输入节奏模式,从而基于输入节奏模式针对所选择的演奏部件执行搜索。然后,响应于对搜出结果所代表的自动伴奏数据中的期望演奏部件的自动伴奏数据的选择和组合,同步地再现这些自动伴奏数据。注意,这种搜索功能由用户操作后面将要描述的操作部分25来开启或关闭。前述数据库可以提供在信息处理装置20之外,在这种情况下数据库可以通过通信网络与信息处理装置20通信。
信息处理装置20执行应用程序的多个操作模式为循环再现模式、演奏再现模式以及演奏循环再现模式。用户可经由后面将要描述的布置在信息处理装置20中的操作部分25来在这些操作模式间进行切换。当操作模式是循环再现模式时,信息处理装置20对其中存储了具有不同节奏模式的多个乐音数据组的数据库中进行搜索以查找与经由节奏输入装置10输入的节奏模式相同或最相似的乐音数据组,并将所搜出的乐音数据组转换成声音以以可听方式输出转换后的声音。这时,信息处理装置20基于搜出的乐音数据组来重复地再现声音。并且,当操作模式是演奏再现模式时,信息处理装置20不仅可以基于搜出的乐音数据组来输出声音,而且还采用搜出的乐音数据组的组成声音或音符来根据演奏操作输出声音。并且,当操作模式是演奏循环再现模式时,信息处理装置20不仅可以根据搜出的乐音数据组来重复地输出声音,而且还根据用户利用搜出的乐句的组成声音或音符所进行的演奏操作来重复地输出声音。注意,“搜出乐句”的示例包括打击乐器乐句和和弦乐句,而不单单局限于旋律乐句;简单来说,“搜出乐句”意味着可以通过作为搜索结果获得的部件演奏数据实现的全部类型中任一类型的音乐乐句。
图2是节奏输入装置10的示意性示图。节奏输入装置10包括键盘11和输入操作板12作为输入手段。通过使用这些输入手段中的任一个,用户可以输入将被作为搜索目标的期望声音生成模式(通常是期望的节奏模式),以作为搜索查询模式。基于输入的搜索查询模式(通常为节奏模式),信息处理装置20在其中存储了多个演奏数据组的存储装置(例如后文描述的自动伴奏数据库221)中搜索具有与输入搜索查询模式相匹配的声音生成模式(例如节奏模式或旋律模式)的演奏数据(乐音数据组)。不同的演奏部件与节奏输入装置10中的键盘11的预定范围和输入操作板12的类型相关联。例如,以两个分割点将键盘11的整个键范围划分成低音键范围、中音键范围以及高音键范围。低音键范围被用作与贝司部件相关联的贝司输入范围键盘11a。中音键范围被用作与和弦部件相关联的和弦输入范围键盘11b。高音键范围被用作与包括单音符的时间序列的旋律乐句部分(单音符乐句部分)相关联的乐句输入范围键盘11c。并且,低音鼓部分与低音鼓输入操作板12a相关联,小鼓部分与小鼓输入操作板12b相关联,踩镲部分与踩镲输入操作板12c相关联,钹部分与钹输入操作板12d相关联。通过执行指定了将在键盘11上按下的各键范围中的任意一个或将被按下的各输入操作板12的任意一个的演奏操作,用户可以针对与指定的输入装置(键范围或操作板)相关联的演奏部件来搜索乐音数据组。即,键盘11和输入操作板12所处的各个区域对应于各种演奏控件或操作器。
例如,一旦用户通过按下与贝司输入范围键盘11a相对应的键范围来输入节奏模式,信息处理装置20a识别出具有与输入节奏模式相同或落入与输入节奏模式的预定相似度范围的节奏模式的贝司乐音数据组,随后信息处理装置20a将由此识别出的贝司乐音数据组显示为搜出结果。在下面的描述中,贝司输入范围键盘11a、和弦范围键盘11b、乐句输入范围键盘11c、低音鼓输入操作板12a、小鼓输入操作板12b、踩镲输入操作板12c以及钹输入操作板12d有时被称为“演奏操作器”,这是因为它们将在用户输入节奏模式时被操作。一旦用户操作了任意一个演奏操作器,则节奏输入装置10就向信息处理装置20输入对应于用户操作的操作信号。为了便于说明,在此假设操作信号是MIDI(乐器数字接口)格式的信息;因此,这种信息在下文中将被称为“MIDI信息”。这种MIDI信息除了前述触发数据和速度数据之外还包括音符编号(如果所使用的演奏操作器是键盘)、或通道信息(如果所使用的演奏操作器是操作板之一)。信息处理装置20根据从节奏输入装置10接收到的MIDI信息来识别已经由用户执行了演奏操作的演奏部件(目标演奏部件)。
此外,节奏输入装置10包括BPM输入操作器13。“BPM”表示每分钟节拍数,更具体地说是在节奏输入装置10上向用户通知的乐音的拍速。BPM输入操作器13包括例如:诸如液晶显示器之类的显示表面以及转盘。一旦用户转动转盘,则在显示表面上显示对应于转盘的旋转停止位置(即,转盘已经旋转的旋转位置)的BPM值。经由BPM输入操作器13输入的BPM将被称为“输入BPM”。节奏输入装置10向信息处理装置20输入包括识别输入BPM的信息的MIDI信息以及输入节奏模式。随后,根据MIDI信息中包含的输入BPM,信息处理装置20例如通过经由声音输出部分26可听地输出声音和/或通过在显示部分24上闪光(所谓的“节拍器功能”),将拍速和演奏前进定时通知给用户。因此,用户可根据从这些声音或光感受到的拍速和演奏前进定时来操作演奏操作器。
图3是示出了信息处理装置20的示例硬件配置的框图。信息处理装置20包括:控制部分21、存储部分22、输入/输出接口部分23、显示部分24、操作部分25、以及声音输出部分26,它们通过总线相互连接。控制部分21是用于控制信息处理装置20的各种组件或部分的控制装置,其包括例如CPU和存储器(如ROM和RAM)。此外,在控制部分21中的RAM中设置后面将要描述的用于自动伴奏数据表格的存储器,以暂时存储当前选择或当前正在创建的一组自动伴奏数据(即自动伴奏数据组)。存储部分22是存储各种数据和程序的存储装置,其包括例如HDD。输入/输出接口部分23是对信息处理装置20和节奏输入装置10之间的指令和数据的输入输出进行中继的接口。显示部分24是对字母、文字或图像或者字母、文字和图像的组合进行显示的显示装置,其包括例如LCD。操作部分25是接收用户的操作并向控制部分21提供与接收的操作相对应的信号的输入装置,其包括例如按键板、键盘或触摸屏,及其组合。声音输出部分26是随着数据处理的进行输出声音的装置,其包括例如扬声器和放大器。在所示的示例中,声音输出部分26包括自动伴奏DB(数据库)221,来作为存储了多个演奏数据组的存储装置的示例。例如,每个演奏数据组(自动伴奏数据组)包括多个演奏部件的演奏数据(即部件演奏数据),并且每个演奏部件的部件演奏数据包括声音生成模式(例如节奏模式或旋律模式)以及与声音生成模式对应的乐音数据组(声音波形数据组)。作为示例,自动伴奏DB 221包括与自动伴奏数据组、乐音数据组相关的各种信息(如MIDI信息)以及与这些数据组相关的各种信息。
图4A至图4C、图5A和图5B是示出自动伴奏DB 221包含的表格的示例内容的示意性示图。更具体来说,自动伴奏DB 221包含部件表格、乐器类型表格、节奏类别表格和节奏模式表格。图4A示出部件表格的一个示例。图4A中的“部件ID”是对构成自动演奏数据组的多个演奏部件中的每一个进行唯一识别的识别符,并且每个部件ID以例如2位数表示。“部件名称”是表示演奏部件的类型的名称。不同的部件ID在部件表格中与各自的演奏部件如“贝司”、“和弦”、“乐句”(旋律乐句)、“低音鼓”、“小鼓”、“踩镲”、和“钹”相关联地被定义;“部件名称”不限于图4A所示的以及可以在部件表格中定义的任何其它部件名称。“音符编号”是表示演奏部件被分配到键盘11的哪一个键范围的MIDI信息。根据MIDI信息,音符编号“60”被分配给键盘的“中央C”。利用音符编号“60”作为基础,小于等于第一阈值“45”的音符编号被分配给“贝司”部件,大于等于第二阈值“75”的音符编号被分配给“乐句”(旋律乐句)部件,而大于等于“46”但小于等于“74”的音符编号被分配给“和弦”部件。注意,上述第一阈值和第二阈值仅为示例性的,并且可以由用户按需要来改变。
另外,“通道信息”是表示演奏部件被分配给哪一个输入操作板的MIDI信息。在所示示例4A中,通道信息“12a”被分配给“低音鼓”部件,通道信息“12b”被分配给“小鼓”部件,通道信息“12c”被分配给“踩镲”部件,并且通道信息“12d”被分配给“钹”部件。
图4B示出乐器类型表格的一个示例。“乐器类型ID”是唯一识别一个乐器的类型的识别符,每个“乐器类型ID”例如由三位数表示。“乐器类型”是表示乐器的类型的名称。例如,不同的乐器类型ID在乐器类型表格中与各自的乐器类型相关联地被定义,比如“木贝司”、“电贝司”和“击弦贝司”。例如,乐器类型“木贝司”在乐器类型表格中与乐器类型ID“001”相关联地定义。类似地,其他乐器类型在乐器类型表格中与它们各自的乐器类型ID相关联地定义。注意,乐器类型不限于图4B中示出的这些,可以在乐器类型表格中定义任何其它乐器类型。
图4C示出节奏类别表格的一个示例。“节奏类别ID”是唯一识别节奏模式的类别(本文也称为“节奏类别”)的识别符,并且每个“节奏类别ID”例如由二位数表示。这里,每个节奏模式表示在预定时间长度的时间段之内要可听地产生各个音符的一系列时刻。特别地,在本实施例中,每个“节奏模式”表示在作为预定时间段的一个示例的一个小节(节)之内要可听地产生各个音符的一系列时刻。“节奏类别”是表示节奏类别的名称,并且在节奏类别表格中将多个唯一节奏类别ID与各自的节奏类别(如“八分”、“十六分”和“八分三连音”)相关联地定义。例如,“八分”节奏类别在节奏类别表格中与节奏类别ID“01”相关联地定义。注意,节奏类别不限于图4C中示出的这些,可以在节奏类别表格中定义任何其它节奏类别。例如,可以采用粗略地分成节拍或流派的分类方式,或者通过将单独的类别ID分配给每个节奏模式来实现更细的分类。或者可以将这种粗略分类和精细分类组合起来以提供多个层次的分类。
图5A示出节奏模式表格的一个示例。在该节奏模式表格中,存储了针对唯一地识别一个演奏部件的每个部件ID来分组的多个节奏模式记录(部件演奏数据)。在图5A中,示出了“贝司”部件(部件ID“01”)的多个节奏模式记录,来作为节奏模式表格的一个示例。每一个节奏模式记录(部件演奏数据)都包括多个项目,比如“自动伴奏ID”、“部件ID”、“乐器类型ID”、“节奏类别ID”、“节奏模式ID”、“节奏模式数据”和“击打强度模式数据”、“乐音数据”、“基调”、“流派”、“BPM”以及“和弦”。所存储的这些节奏模式表格按照逐个演奏部件进行分组。
“自动伴奏ID”是唯一地识别自动伴奏数据组的识别符,并且该自动伴奏ID被分配给构成自动伴奏数据组的各个演奏部件的节奏模式记录(部件演奏数据)。例如,具有相同自动伴奏ID的自动伴奏数据(部件演奏数据)设置或调节为使得这些自动伴奏数据(部件演奏数据)具有相同的项目内容,例如“流派”、“基调”或“BPM”,由此,在针对多个演奏部件的合奏中再现自动伴奏数据时可以显著地降低不舒服的感觉。如上所述,“乐器类型ID”是唯一地识别乐器类型的识别符。针对每个乐器类型ID使具有相同部件ID的节奏模式记录分成一组,并且用户可在利用输入装置10输入节奏(查询模式)之前通过使用操作部分25来选择乐器类型。用户所选的乐器类型被存入RAM。“节奏类别ID”是唯一地识别每个节奏模式记录所属的节奏类别的识别符。在图5A所示的示例中,“乐器类型ID”为“01”的节奏模式记录属于“八分”(即八分音符)节奏类别,如图4C所示的节奏类别表所示。“节奏模式ID”是唯一地识别节奏模式记录的识别符,并且其例如由9位数字表示。这9位数字包括“部件ID”的2位数字、“乐器类型ID”的3位数字、“节奏类别ID”的2位数字、以及后缀编号的2位数字的组合。
“节奏模式数据”包括其中记录了构成一个小节的乐句(音乐乐句)的各个组成音符的产生开始时刻的数据文件;例如,节奏模式数据是其中描述了各组成音符的声音产生开始时刻的文本文件。节奏模式数据表示节奏模式(即声音生成模式)。在后文描述的匹配操作中,节奏模式数据中的声音产生开始时刻与输入的节奏模式中包含的触发数据(用于搜索目的输入的查询模式,其表示用户已经执行了演奏操作)相关联。在此,预先使用一个小节的长度为“1”来使每个组成音符的声音产生开始时刻归一化。即,节奏模式数据中描述的每个组成音符的声音产生开始时刻取“0”至“1”的范围内的值。
可从可商业获取的音频循环素材(audio loop material)中通过操作人员提取幻音来创建节奏模式数据。不过,节奏模式数据的创建可以通过任意其它期望的方法来实现,而不限于上述方法。例如,可以预先通过计算机自动提取幻音以提取节奏模式数据。例如,在从中提取了节奏模式数据的数据为MIDI格式的情况下,可通过计算机以下述方式创建节奏模式数据。计算机的CPU针对一个小节从MIDI格式数据中提取特定通道组成音符的产生开始时刻,并去除难以判断为节奏输入的幻音(例如具有极小速度数据的这些声音)。随后,如果其中去除了幻音的MIDI格式的数据中的预定时间段内存在多个输入(比如和弦输入),则计算机的CPU通过执行用于将多个输入组织或组合成一个节奏输入的处理来自动地创建节奏模式数据。
并且,对于鼓部件,多个乐器(例如低音鼓、小鼓以及钹)的声音有时候会存在于一个通道中。在这种情况下,计算机的CPU以下述方式提取节奏模式数据。并且,对于鼓部件,乐器声音在很多情况下都固定地预先分配给各种音符编号。为了便于描述,此处假设小鼓的音色被分配给音符编号“40”。根据这种假设,计算机的CPU通过提取分配了小鼓的音色的音符编号的各个组成音符的声音产生开始时刻,在其中记录了伴奏声音源的鼓部件的通道中提取小鼓的节奏模式数据。
“击打强度模式数据”是其中记录了构成一个小节的乐句(音乐乐句)的各个组成音符的击打强度的数据文件;例如,击打强度模式数据是其中各个组成音符的声音产生开始时刻被描述成数值的文本文件。击打强度对应于输入节奏模式中所包含的表示了用户演奏操作的强度的速度数据。即,每个击打强度代表了乐句的组成音符的强度值。在文本文件中可将击打强度描述为MIDI信息的速度数据本身。
“乐音数据”(乐音数据名称)是关于基于节奏模式记录的声音本身的数据文件的名称,即是声音波形数据文件的名称;例如,“乐音数据”代表了具有声音文件格式(例如WAVE或MP3)的实际乐音数据组(声音波形数据组)的文件。“基调”代表了由乐音数据组代表的乐音的基调。“流派”代表了节奏模式记录所属的音乐流派。“BPM”代表了每分钟的节拍数,更具体地代表了基于节奏模式记录中所包含的乐音数据组的乐音(即声音)的拍速。
在本实施例中,对应于节奏模式(声音生成模式)的乐音数据组(声音波形数据组)存储在与节奏模式的存储区域分离的存储区域中,实际乐音数据组(声音波形数据组)通过存储在节奏模式表格中的乐音数据名称(文件名)识别。作为替换,可以不仅将节奏模式(声音生成模式)存储为“节奏模式数据”,还可以将对应于节奏模式(声音生成模式)的乐音数据组(声音波形数据组)存储为“节奏模式数据”。在这种情况下,节奏模式数据包括后面将要描述的各种声音文件格式中任一种的音频数据。
“和弦”代表了乐音数据所代表的乐音的和弦的类型。这种“和弦”被设置在其演奏部件是和弦部件的节奏模式记录中。在图5A所示的示例中,“Maj7”被示出作为其“部件ID”是“02”的节奏模式记录中的“和弦”的示例。其演奏部件是“和弦”部件的节奏模式记录具有针对单个节奏模式ID的多个类型的“和弦”、以及对应于各个“和弦”的乐音数据。在图5A所示的示例中,其节奏模式ID是“020040101”的节奏模式记录具有对应于多个和弦(诸如“Maj”、“7”、“min”、“dim”、“Sus4”)的乐音数据。在这种情况下,具有相同节奏模式ID的节奏模式记录的每一个都具有除了“乐音数据”和“和弦”之外的相同的内容。在这种情况下,每个节奏模式记录可具有仅仅包括各个和弦(每个都具有相同的作为“基调”的音高)的根音符的乐音数据组以及包括各个和弦的除了根音符之外的各个组成音符的乐音数据组。在这种情况下,控制部分21同时再现由仅仅包括各个和弦的根音的乐音数据组以及包括用户指定的各个和弦的除了根音符之外的各个组成音符的乐音数据组所代表的乐音。图5A以示例的方式示出了其演奏部件是“贝司”部件的节奏模式记录;但是实际上,在节奏模式表格中描述对应于多个类型的演奏部件(在该情况下为和弦、乐句、低音鼓、小鼓、踩镲以及钹)的节奏模式记录,如图5A部分所示。
图5B示出了自动伴奏数据表格的示例。该自动伴奏数据表格是针对每个演奏部件定义了在自动伴奏中要使用哪些条件和哪些乐音数据组的表格。自动伴奏数据表格总体上以与节奏模式表格相同的方式构建。自动伴奏数据表格的第一行中描述的自动伴奏数据组包括具体相关的演奏部件的组合,并且定义了与合奏演奏中的自动伴奏相关的信息。为了与其它数据进行区分,为与合奏演奏中的自动伴奏相关的信息分配部件ID“99”、乐器类型ID“999”以及节奏模式ID“999990101”。这些值表示所讨论的自动伴奏数据组包括合奏的自动伴奏的数据。并且,与合奏演奏中的自动伴奏有关的信息包括由各个演奏部件的乐音数据组的组合而合成的一个乐音数据组“Bebop01.wav”。在再现时,利用组合在一起的所有演奏部件来再现乐音数据组“Bebop01.wav”。注意,允许利用作为自动伴奏数据组的单个乐音数据组来演奏多个演奏部件的文件并非必需。如果没有这种文件,则“乐音数据”部分中没有定义信息。并且,在“节奏模式数据”和“击打强度模式数据”部分中分别描述了基于合奏的自动伴奏的乐音(即,Bebop01.wav)的节奏模式和击打强度。并且在图5B中,部件ID“01”所代表的第二行中的自动伴奏数据组以及第二行之后的各行中的自动伴奏数据组代表了用户逐部件选择的内容。在该示例中,用户针对部件ID“01”至“07”的各个演奏部件来指定具体的乐器,随后“BeBop”风格的自动伴奏数据组被用户选择。并且,在图5B所示的示例中,没有为对应于节奏乐器的演奏部件指定“基调”。但是,当将要执行乐音音高转换时,可指定作为乐音音高转换基础的乐音音高(即基本音高),从而根据指定的乐音音高和基本音高之间的间隔来转换指定音高。
图6是信息处理装置20以及信息处理装置20周围的其他组件的功能布置的框图。控制部分21将构成存储于ROM或存储部分22中的应用程序的各个程序读入RAM,并执行所读出的程序以实施拍速获取部分211、进程(advancing)部分212、通知部分213、部件选择部分214、模式获取部分215、搜索部分216、识别部分217、输出部分218、和弦接收部分219以及音高接收部分220的各项功能。虽然下文描述了被上述各种部分执行的各种处理,但是执行处理的主要组件实际上是控制部分21。在下文的描述中,术语“ON-设定”指的是节奏输入装置10的输入状态从OFF切换成ON。例如,如果键盘是节奏输入装置10的输入部件,则术语“ON-设定”意味着键已经被按下,或者如果操作板是节奏输入装置10a的输入部件,则术语“ON-设定”意味着操作板已经被敲击,或者如果按钮是节奏输入装置10的输入部件,则术语“ON-设定”意味着按钮已经被按下。另一方面,如果键盘是节奏输入装置10的输入部件,则术语“OFF-设定”意味着键已经从按下状态释放,如果操作板是节奏输入装置10的输入部件,则术语“OFF-设定”意味着对操作板的敲击已经完成,或者如果按钮是节奏输入装置10的输入部件,则术语“OFF-设定”意味着手指已经从按钮上释放。并且,在下面的描述中,术语“ON-设定时刻”表示节奏输入装置10的输入状态已经从OFF变成ON的时间点。换言之,“ON-设定时刻”表示节奏输入装置10中已经产生触发数据的时间点。另一方面,术语“OFF-设定时刻”表示节奏输入装置10的输入状态已经从ON变成OFF的时间点。换言之,“OFF-设定时刻”表示触发数据已经在节奏输入装置10中消失的时间点。而且,在下文描述中,术语“ON-设定信息”是在ON-设定时刻从节奏输入装置10向信息处理装置20输入的信息。术语“ON-设定信息”除了上述触发数据之外还包括键盘按键的音符编号、通道信息等。
拍速获取部分211获取用户指定的BPM,即用户指定拍速。此处,由用户利用BPM输入操作器13和后面描述的BPM指定滑动器201中的至少一个来指定BPM。BPM输入操作器13和BPM指定滑动器201被构造为以彼此互锁关系进行操作,由此,一旦用户使用BPM输入操作器13和BPM指定滑动器201之一来指定BPM,则所指定的BPM被显示在BPM输入操作器13和BPM指定滑动器201中的另一的显示部分上。一旦接收到用户通过未示出的开关而给出的拍速通知开始指令,则进程部分212在从指令已经被接收到时的时间点开始的小节内使当前位置前进(演奏前进定时)。通知部分213向用户通知该小节内的当前位置。更具体地说,在其中以一个小节的长度为“1”来归一化每个组成音符的情况下,通知部分213每隔几十毫秒(msec)就向模式获取部分215输出位于进程时间轴上的当前位置来作为时钟信号(下文中称为“小节线时钟信号”)一次。即,小节线时钟表示小节内当前时刻所处的位置,并且其取“0”至“1”的范围内的值。通知部分213根据用户指定的拍速产生小节线时钟信号。
部件选择部分214根据用户的指定从多个演奏部件中选择特定的演奏部件。更具体地说,部件选择部分214识别包含在从节奏输入装置10输入的MIDI信息中的演奏部件识别信息是音符编号还是通道信息。随后,部件选择部分214根据识别的信息以及包含在自动伴奏数据库(DB)221中的部件表格,确定哪个演奏操作器已经被用户操作,即构成乐音数据组的多个演奏部件的哪个部件已经被用户针对节奏模式输入而被指定,随后,部件选择部分214选择将进行搜索处理的演奏部件的乐音数据组、节奏模式表格等。如果所接收的MIDI信息是音符编号,则部件选择部分214将接收到的音符编号与部件表格的描述内容进行比较,从而确定贝司输入范围键盘11a、和弦输入范围键盘11b以及乐句输入范围键盘11c的哪一个对应于用户操作,随后部件选择部分214选择相应演奏部件的乐音数据组、节奏模式表格等。此外,如果所接收的MIDI信息是通道信息,则部件选择部分214将接收到的通道信息与部件表格的描述内容进行比较,从而确定低音鼓输入操作板12a、小鼓输入操作板12b、踩镲输入操作板12c以及钹输入操作板12d的哪一个对应于用户操作,随后部件选择部分214选择相应演奏部件的乐音数据组、节奏模式表格等。部件选择部分214向搜索部分216输出与所选演奏部件相对应的部分ID。
模式获取部分215从多个演奏部件中获取特定演奏部件的节奏模式(搜索查询模式)输入。更具体地说,模式获取部分215基于小节线时钟将从节奏输入装置10a输入的已经出现触发数据的各个时间点(即,各个ON-设定时刻)按每个小节来存入RAM。由此按小节存储在RAM中的一系列的ON-设定时刻构成了输入节奏模式(搜索查询模式)。由于存储在RAM中的每个ON-设定时刻均基于小节线时钟,所以其和小节线时钟一样取从“0”到“1”的范围内的值。从外部源向信息处理装置20输入的小节线时钟信号可用作上述小节线时钟信号。
为了使用户可以精确地输入每小节的节奏模式,小节线开始的时间点必须从信息处理装置20反馈给用户。为此,仅仅需要通过按照每个小节和/或节拍(例如节拍器之类)产生声音或光或改变显示屏幕上的显示内容的信息处理装置20向用户可视地或可听地表示小节线的位置。这时,基于从通知部分213输出的小节线时钟信号,声音输出部分26产生声音或者显示部分24产生光。可替换的,输出部分218可以根据小节线时钟信号来可听地再现具有预先添加了咔嗒声(其表示小节线的位置)的伴奏声音。在这种情况下,用户根据用户从伴奏声音源感觉到的小节线来输入节奏模式。
搜索部分216搜索其中存储了多个乐音数据组(每个乐音数据组都包括多个乐音数据)的自动伴奏数据库221,以根据特定演奏部件的每个乐音数据组中所包括的节奏模式和输入节奏模式(搜索查询模式)之间的比较结果来获取作为搜出结果的乐音数据组。也即,搜索部分216在存储装置(自动伴奏数据库221)中搜索与搜索查询模式匹配的节奏模式。在自动伴奏数据库221中已经存储了针对各个演奏部件的单独的乐音数据组。然后,搜索部分216在显示部分24上显示搜出结果,从而用户可以从搜出结果中包含的乐音数据组中选择期望的乐音数据组,随后搜索部分216将用户选择的乐音数据组登记为自动伴奏数据组中的演奏部件的自动伴奏部分数据。通过针对每个演奏部件重复这个操作,用户可以创建自动伴奏数据组。
自动伴奏数据库221包括单独的乐音数据组和与多个演奏部件对应的自动伴奏数据组、以及用于管理各个数据的信息的多个表格。在所获得的搜出结果中,搜索部分216识别乐音模式落入预定范围的特定演奏部件的乐音数据组。该预定范围由按照相比较的两个模式之间的相似度的升序排列时的乐音模式的数量来代表,并且该预定范围存储在存储部分22中,并且可以通过操作部分25改变。即,该预定范围越宽,搜索部分216从搜出结果中识别的乐音数据组越多;于是,如果预定范围较窄,则搜索部分216仅从搜出结果中识别具有高相似度的乐音数据组。例如,如果用户想要获得与输入节奏模式(搜索查询模式)较接近的搜出结果,则仅需将预定范围设置为较窄的范围以便容易获得期望的搜出结果。另一方面,如果用户针对输入的节奏模式(搜索查询模式)想要获得更多的结果,则仅需将预定范围设置为较宽的范围。此外,如果用户想要获得在某种不太高也不太低的程度上与输入节奏模式(搜索查询模式)相似的搜出结果,并且想要搜出结果与输入节奏模式(搜索查询模式)具有较高相似度,则可以采用允许系统或用户设置相似度的上下限值的配置。识别部分217还响应于用户对操作部分25的用于指定诸如“基调”、“流派”、“BPM”等期望的一个或多个项目的操作从经过搜索部分216识别/搜索的乐音数据组中识别一个或多个乐音数据组。在一个实施例中,识别部分217可以响应于用户对操作部分25的输入文本以指定期望乐音数据的至少一部分名称的操作,进一步从经过搜索部分216识别/搜索的乐音数据组中识别一个或多个乐音数据组。
在乐音数据和自动伴奏数据组的再现中,输出部分218读出从小节内的当前位置(即基于小节线时钟的数据位置)识别出的乐音数据,随后以基于与乐音数据相关联的演奏拍速与指定拍速之间的关系的速度,再现由读出乐音数据所代表的乐音,随后向声音输出部分26输出乐音再现信号。声音输出部分26可听地输出基于再现信号的声音。并且,输出部分218在演奏再现模式和演奏循环再现模式下利用搜出并被选的乐音数据组的组成音符来控制用户的演奏操作。此外,和弦接收部分219接收用户指定的和弦的输入。音高接收部分220接收表示用户指定的声音的音高的乐音音高信息的输入。
1-2.行为
1-2-1.搜索
下文参考图7和图8来描述在搜索功能为ON时由控制部分21所执行的基于输入节奏模式搜索自动伴奏数据组的处理的示例操作序列。
图7是示出了由信息处理装置20执行的处理的示例操作序列的流程图。一旦用户经由节奏输入装置10的未示出的操作器指示了创建自动伴奏数据组,则开始该处理程序。响应于这样的用户指示,信息处理装置20在程序开始之后在步骤Sa0执行初始化处理。在初始化处理中,用户使用操作部分25来指定对应于各个键范围的乐器类型以及对应于输入操作板的乐器类型,并且使用BPM输入操作器13输入BPM。此外,控制部分21将图4、图5A和图5B所示的各种表格读入RAM。在初始化处理之后,用户使用节奏输入装置10来指定键盘11的预定键范围的任意一个或者输入操作板12a至12d中的任何一个,即指定演奏部件,并且输入该指定部件的节奏模式。节奏输入装置10向信息处理装置20发送包括识别指定的演奏部件的信息的MIDI信息、识别指定乐器类型的信息、识别输入的BPM的信息、以及输入节奏模式。一旦控制部分21经由输入/输出接口部分23从节奏输入装置10接收到MIDI信息,其执行根据图7所示的流程的处理。
首先,在步骤Sa1中,控制部分21获取识别输入BPM的信息,并将所获取的BPM存储为将被记录在读出至RAM的自动伴奏表格中的自动伴奏数据组的BPM。随后,在步骤Sa2中,控制部分21基于包含在所接收的MIDI信息中的识别用户所选演奏部件的信息(例如音符编号或者通道信息)以及包含在自动伴奏数据库221中的部件表格来获取用户所选演奏部件的部件ID,随后将所获取的部件ID作为将被记录在所读出的部件表格以及自动演奏表格中的演奏部件的部件ID存入RAM。为了便于说明,在此假设,响应于用户利用贝司输入范围键盘11a输入节奏模式,控制部分21已经获取了“01”作为部件ID,如图4的(a)所示,随后将所获取的部件ID“01”存入RAM。
随后,一旦控制部分21基于包含在所接收的MIDI信息中的识别用户所指定的乐器类型的信息以及包含在自动伴奏数据库211中的乐器类型表格获取了用户所指定的乐器类型的乐器类型ID,则控制部分21在步骤Sa3中将所获取的乐器类型ID作为将被记录在读出的乐器类型表格以及自动演奏表格中的演奏部件的乐器类型ID存入RAM。为了便于说明,在此假设,响应于用户利用操作部分25指定“电贝司”作为乐器类型,控制部分21已经获取了“002”作为乐器类型ID,如图4的(b)所示,并且已经将“002”作为将被记录在读出的自动演奏表格中的演奏部件的乐器类型ID存入RAM。此后,一旦控制部分21获取所接收的MIDI信息中包含的输入节奏模式,其就在步骤Sa4中将所获取的输入节奏模式存入RAM。此后,在步骤Sa5中,针对用户指定的演奏部件和乐器类型,控制部分21在自动演奏数据库221中搜索与输入节奏模式相同或相似的乐音数据组。步骤Sa5的细节将在下文参照图8进行说明。
图8是搜索处理的流程图。首先在步骤Sb 1中,控制部分21使用输入节奏模式表格中描述的所有节奏模式来按每个节奏类别计算ON-设定时刻间隔的分布。这里,在每个节奏模式记录的节奏模式数据中包含了以一个小节长度作为“1”而进行归一化之后的各个组成音符的乐音或声音产生起始时刻,即ON-设定时刻。ON-设定时刻间隔每一个都是时间轴上处于一对相邻ON-设定时刻之间的间隔,并且由处于从“0”至“1”的范围内的数值来表示。此外,假设一个小节被分成48个相等时间片段,则ON-设定时刻间隔的分布可以由与各个时间片段相对应的ON-设定时刻间隔的数量来表示。将一个小节分成48个相等时间片段的原因在于,如果在每小节四拍节奏的前提下将每个节拍分成12个相等时间片段,那么就能够实现适合于在多种不同节奏类别(比如八分、八分三连音和十六分)中进行识别的分辨率。这里,“分辨率”是通过能够以诸如音序器或本实施例中采用的应用程序之类的音序软件进行表达的最短长度的音符来确定的。在本实施例中,分辨率是每小节“48”,因此一个四分音符可分成12个片段。
在下面关于输入节奏模式的描述中,术语“ON-设定时刻间隔”也使用与用于节奏模式记录中相同的含义。即,在输入节奏模式中,在时间轴上一对相邻ON-设定时刻之间的间隔每一个都表示ON-设定时刻间隔。将在上面步骤Sb1中按每个节奏类别计算的ON-设定时刻间隔的分布与在后面描述的步骤Sb3中计算的输入节奏模式中的ON-设定时刻间隔的分布相比较。在搜索处理流程的开始就在步骤Sb1中针对每个节奏类别计算ON-设定时刻间隔分布的原因在于,如果作为搜索处理对象的节奏模式记录和节奏类别为恒定不变的,则在步骤Sb1计算的ON-设定时刻间隔分布是恒定的,因此只要计算一次就无需再次计算。因此,在信息处理装置20上电之时或者在搜索处理启动之时就可以执行步骤Sb1的ON-设定时刻间隔分布。另外,控制部分21可以预先获取表示在步骤Sb1计算的ON-设定时刻间隔分布的数据,在ROM等中预存所获得的数据,从而控制部分21可以在搜索处理启动之时读出该预先获取的数据。
下面使用ON-设定时刻的具体值来描述在上述步骤Sb1如何计算ON-设定时刻间隔的分布。为了便于说明,这里假设在节奏模式记录的节奏模式数据中描述了如下面项目(a)中指示的八分(音符)节奏模式。
(a)0,0.25,0.375,0.5,0.625,0.75和0.875
基于上面项目(a)中指示的输入节奏模式,控制部分21计算如下面项目(b)中指示的ON-设定时刻间隔。
(b)0.25,0.125,0.125,0.125,0.125和0.125
然后,控制部分21通过将上面在(b)中计算的每个ON-设定时刻间隔乘以值“48”、随后将“0.5”加到得到的乘积上,并随后将得到的和的小数点之后的数字向下舍入(即“量化处理”),来计算如下面的项目(c)中指示的一组值。
(c)12,6,6,6,6和6
这里,“量化处理”指的是控制部分21根据分辨率校正每个ON-设定时刻间隔。执行量化处理的原因如下。在节奏模式表格中的节奏模式数据中描述的声音产生时刻是基于分辨率的(在该情况中为“48”)。因此,在使用ON-设定时刻间隔来搜索节奏模式表格的情况下,搜索精度会降低,除非要用于搜索的ON-设定时刻间隔也是基于分辨率的。由于该原因,控制部分21对上面项目(b)中指示的每个ON-设定时刻间隔执行量化处理。
现在考虑下面在各个节奏模式记录的节奏模式数据中描述了两个八分节奏模式、两个十六分节奏模式和两个八分三连音节奏模式的情况:
·八分节奏类别
(A)0,0.25,0.375,0.5,0.625,0.75,和0.875,以及
(B)0,0.121,0.252,0.37,0.51,0.625,0.749和0.876;
·十六分节奏类别
(C)0,0.125,0.1875,0.251,0.374,0.4325,0.5,0.625,0.6875,0.75,0.876和0.9325,以及
(D)0,0.625,0.125,0.1875,0.251,0.3125,0.375,0.4325,0.5,0.5625,0.625,0.6875,0.75,0.8125,0.875和0.9325;以及
·八分三连音节奏类别
(E)0,0.8333,0.1666,0.25,0.3333,0.4166,0.5,0.5833,0.6666,0.75,0.8333和0.91666,以及
(F)0,0.1666,0.25,0.333,0.4166,0.5,0.6666,0.75,0.8333和0.91666。
控制部分21针对上面(A)-(F)项使用前文所述的计算方式对每个节奏类别计算ON-设定时刻间隔的分布。图9B示出了通过控制部分21针对各个节奏类别计算出的ON-设定时刻间隔的示例分布的分布表格。
在步骤Sb1之后的步骤Sb2,控制部分21使用存储在RAM中的部件ID和乐器类型ID来搜索节奏模式表格。不过,乐器类型的指定并非绝对必要的;如果没有指定乐器类型,则控制部分21仅根据部件ID来搜索节奏模式表格。在后续处理中,控制部分21使用在步骤Sb2搜出的节奏模式记录作为处理的目标或对象。
如上所述,输入节奏模式包括以一个小节的长度作为值“1”而进行了归一化的ON-设定时刻。在步骤Sb2之后的步骤Sb3,控制部分21使用与在步骤Sb1中相同的计算方式来计算输入节奏模式中的ON-设定时刻间隔的分布。这里为了便于说明,假设输入节奏模式与上述(a)项所示的相同,并且通过对如(b)项所示计算的各个ON-设定时刻间隔执行量化处理来计算如(c)项所示的一组数值。图9A示出了通过控制部分21针对输入节奏模式计算出的ON-设定时刻间隔的示例分布的分布表格。
下面参照图9A至图9C中示出的分布表格进一步描述ON-设定时刻间隔的分布。图9A是在输入节奏模式中的ON-设定时刻间隔的分布表格。在图9A中,水平轴表示在将一个小节分成48个时间片段的情况下的时刻间隔,而垂直轴表示量化后的ON-设定时刻间隔的数量的比值(“数量比”)。另外,在图9A中,上面项目(c)中指示的基于输入节奏模式的这组数值被分配到分布表格。通过控制部分21将数量比归一化,以使得数量比之和成为“1”(一)。从图9A可以看出,分布的峰值处在时刻间隔“6”处,其为量化后的ON-设定时刻间隔的项目(c)的数值组中最大的数。
在步骤Sb3之后的步骤Sb4,控制部分21通过使用图9A的分布表格来计算表示了如下相似度的各距离(以下也称为“相似度距离”),所述相似度是基于节奏模式表格(见图9B)中描述的各个节奏类别的节奏模式的ON-设定时刻间隔分布与基于输入节奏模式的ON-设定时刻间隔分布之间的相似度。图9C示出对基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔分布(图9B)与基于输入节奏模式的ON-设定时刻间隔分布(图9A)之间的差异进行表示的分布表格。可以以下述方式来执行步骤Sb4的相似度距离计算。首先,针对在基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔的分布表格以及基于输入节奏模式的ON-设定时刻间隔的分布表格两者中的每个相同时刻间隔,控制部分21计算这两个表格之间的数量比中的各差异的绝对值。随后,针对每个节奏类别,控制部分21计算通过将针对各个时刻间隔计算出的绝对值相加而得到的和的平方根。如此计算出的平方根的值表示了上述相似度距离。较小的相似度距离的值表示较高相似度,而较大的相似度距离的值表示较低的相似度。在图9C所示的示例中,八分节奏类别呈现出在基于图9A和图9B的分布表格的数量比中最小的差异,这表明在分布表格中所示的八分、十六分和八分三连音节奏类别中,八分节奏类别与输入节奏模式具有最小相似度距离。
在步骤Sb4之后的步骤Sb5,控制部分21确定在节奏模式表格中描述的节奏类别当中呈现最小相似度距离的一个节奏类别是输入节奏模式落入或属于的节奏类别。更具体地,在该步骤,控制部分21识别出输入节奏模式落入或属于八分节奏类别。即,通过上面步骤Sb2至Sb5的操作,控制部分21识别出输入节奏模式较可能落入其中或所属的一个特定节奏类别。也即,搜索部分针对每个节奏分类识别符确定表示用户输入的由节奏模式所代表的声音产生时刻间隔的频率分布的输入时刻间隔直方图(见图9A)与针对每个节奏分类识别符(在当前实施例中为节奏类别)表示存储部分中存储的节奏模式中的声音产生时刻间隔的频率分布的节奏分类直方图之间的差异的绝对值,并且随后搜索部分搜索与呈现最小绝对值的节奏分类识别符相关联的节奏模式中的满足呈现与输入的或获取的输入模式相似度较高的条件的特定节奏模式相关联的乐音数据组。
随后,在步骤Sb6,控制部分21计算节奏模式表格中描述的所有节奏模式与输入节奏模式之间的差异的水平,以便从节奏模式表格中描述的节奏模式中识别出与输入节奏模式呈现出较高相似度的节奏模式。这里,“差异的水平”表示输入节奏模式中的各个ON-设定时刻间隔与节奏模式表格中描述的各个节奏模式的各个ON-设定时刻间隔相互距离多远。也就是说,在输入节奏模式与节奏模式表格中描述的任一个节奏模式之间的较小的差异水平表示输入节奏模式与节奏模式表格中描述的这个节奏模式之间具有较高的相似度。
即,控制部分21在直至步骤Sb5的操作中识别与输入节奏模式较有可能匹配的节奏类别,而在步骤Sb6的操作中将属于所有节奏类别的节奏模式记录都作为计算对象进行处置。这么做的原因如下。在各节奏模式记录中包括的节奏模式数据中,可能存在难以明确地确定其属于哪一个节奏类别的节奏模式数据,比如其中在同一个小节中存在数量基本相同的八分ON-设定时刻间隔和十六分ON-设定时刻间隔的节奏模式数据。在这种情况下,通过如上所述由控制部分21在步骤Sb6中将属于所有节奏类别的乐句记录都作为计算对象进行处置,将会有利地提高准确检测出用户想要的节奏模式的可能性。
下面参照图10更详细地描述步骤Sb6的操作。图10是说明节奏模式之间的差异的计算的示意性示图。如图10所示,输入节奏模式由“J”图示,在节奏模式记录中描述的节奏模式由“K”图示。输入节奏模式J与节奏模式K之间的差异水平通过如下方式来计算。
(1)控制部分21计算输入节奏模式J的各ON-设定时刻与节奏模式K的最接近于输入节奏模式J的ON-设定时刻中相应的那些时刻的各ON-设定时刻之间的时间差异的绝对值(图10的(1));换言之,基于输入节奏模式JJ的各个ON-设定时刻或者使用输入节奏模式J的ON-设定时刻作为计算基础来计算时间差异的绝对值。
(2)然后,控制部分21计算在上面(1)中计算的绝对值的积分值。
(3)然后,控制部分21计算节奏模式K的各个ON-设定时刻与输入节奏模式J的最接近于节奏模式K的ON-设定时刻中相应的那些时刻的各ON-设定时刻之间的时间差异的绝对值(图10的(3));换言之,基于节奏模式K的各个ON-设定时刻或者使用节奏模式K的ON-设定时刻作为计算基础来计算时间差异的绝对值。
(4)控制部分21计算在上面(3)中计算的绝对值的积分值。
(5)然后,控制部分21计算在上面(2)中计算的积分值与在上面(4)中计算的积分值之间的平均值,作为输入节奏模式J与节奏模式K之间的差。
在本实施例中,没有准备足够数量的节奏模式,如图10的(3)所示,控制部分21在积分值的计算中执行避免使用(即不使用)比参考时刻间隔(在所示示例中为“0.125”,因为这里的节奏类别为“八分”)大的每个ON-设定时刻间隔差的绝对值的操作。不过,也可以不必进行这种避免使用比参考时刻间隔大的每个ON-设定时刻间隔差的绝对值的操作。控制部分21针对节奏模式表格中包括的所有节奏模式记录中的节奏模式来执行上述计算(1)至(5)。
接下来,在步骤Sb7,控制部分21将在上面步骤Sb4中针对每个节奏类别计算的相似度距离乘以在步骤Sb6中计算的差,从而针对节奏模式表格中包括的、且具有RAM中存储的部件ID的所有节奏模式记录来计算与输入节奏模式的距离。下面是说明步骤Sb7的操作的数学表达式,其中“J”表示输入节奏模式,“K”表示给定的节奏模式记录中的节奏模式。
节奏模式J与节奏模式K之间的距离=(节奏模式J与节奏模式K所属的节奏类别之间的相似度距离)×(节奏模式J与K之间的差异)
注意,较小的节奏模式J与K之间的距离表明节奏模式K与输入节奏模式J具有较高的相似度。即,节奏模式J与K之间的距离表示节奏模式J与K之间的相似度。在以下描述中,有时将会把节奏模式之间的小距离称为“节奏模式之间的高相似度”或类似表达。不过,注意在前述的距离计算中,执行下面的操作以使得从在上面步骤Sb5中已被确定为输入节奏模式落入或所属的类别之内输出搜出结果。即,控制部分21确定在上面的步骤S5中识别的节奏类别与节奏模式K所属的节奏类别是否彼此相同,并且,如果不相同,则将一个预定常数(例如0.5)加到通过上述数学表达式计算的距离上。通过添加这种预定常数(例如0.5),对于属于与在步骤Sb5中识别的节奏类别不相同的节奏类别的每个节奏模式记录而言,其节奏模式距离将会变得更大甚至非常大,因而可以更容易地从在步骤Sb5中被确定为输入节奏模式所属的节奏类别之内输出搜出结果。
在图8的步骤Sb8,根据所选的演奏部件和输入节奏模式的节奏模式表格,控制部分21从具有距输入节奏模式距离较小的节奏模式数据的乐音数据组中按照相似度距离的升序获取预定数量的乐音数据组作为搜出结果,并且控制部分21将该预定数量的乐音数据组存入RAM,随后使图8的处理结束。该“预定数量”可预先存储为存储部分22中的参数,并且用户可利用操作部分25对其做出改变。此处,控制部分21具有过滤功能,以仅仅将其BPM接近于用户输入BPM的乐音数据组输出作为搜出结果,并且用户可通过操作部分25根据需要打开或者关闭过滤功能。当过滤功能打开时,控制部分21在步骤Sb8从搜出结果中排除其BPM与输入BPM的差异没有落入预定范围内的乐音数据组。更具体地说,控制部分21在步骤Sb8例如仅仅获取BPM处于输入BPM的(1/21/2)倍至21/2倍的范围内的乐音数据组作为搜出结果,而从搜出结果中排除其它乐音数据组。注意,系数“(1/21/2)倍”和“21/2倍”仅仅是示例性的,还可以采用其它值。
控制部分21之所以具有这种过滤功能的原因如下。当前实施例的控制部分21可利用用户输入BPM或用户指定BPM来再现被获取作为搜出结果的任意乐音数据组的乐音。如果用户输入了显著不同于乐音数据组的初始BPM的BPM,则在被声音输出部分26可听地输出时,乐音数据组的乐音可能会不合需要地向用户等给出一种不舒服的感觉。例如,假设这样一种情况,其中用户以BPM“240”的拍速输入节奏模式,并且在对具有前述节奏模式的乐音数据组进行搜索而获得的乐音数据组当中所包括的一个乐音数据组所代表的原始BPM为“60”。在这种情况下,基于在搜出结果中包括的乐音数据组的乐音被声音输出部分26以四倍于原始BPM的BPM可听地输出,即,以四倍于原始BPM的BPM按照快进的方式再现基于该乐音数据组的乐音,结果就会向用户给出不舒服的感觉。并且,如果乐音数据组是WAVE或mp3格式的音频文件,则再现的声音质量可能会随着原始BPM和用户指定BPM之间的差异的增大而恶化。为了避免这种不便,当前实施例中的控制部分21具有过滤功能。
回过来参考图7,一旦在步骤Sa5完成搜索处理,则控制部分21在显示部分24上显示在步骤Sb8中存储在RAM中的乐音数据组(步骤Sa6)。
图11是示出了伴奏数据组的搜出结果的示例的示意图。更具体地说,图11示出了被控制部分21根据用户利用贝司输入范围键盘11a输入的节奏模式而获取作为搜出结果的乐音数据组被显示在显示部分24上的情况。在显示部分24的上部区域显示了BPM指定滑动器201、基调指定键盘202(音乐键)、以及和弦指定框203。例如,BPM指定滑动器201包括预定长度的凹槽部分、可移动地提供在凹槽部分中的旋钮、以及BPM显示部分。随着用户利用操作部分25来改变旋钮的位置,控制部分21在BPM显示部分上显示对应于旋钮的改变后(变成)的位置的BPM。在图11所示的示例中,显示在显示部分上的BPM随着旋钮从凹槽部分的左端朝着右端的方向移动而变得更大(更快的BPM),但是随着旋钮从凹槽部分的右端朝着左端方向的移动而变得更小(更慢的BPM)。控制部分21利用经由BPM指定滑动器201指定的BPM(下文中称为“指定BPM”)来再现用户从搜出结果中选出的乐音数据组所代表的乐音。即,控制部分21将用户从搜出结果中选出的乐音数据组中所包含的乐音数据的BPM与指定BPM同步。可选地,如果信息处理装置20与外部装置以与之同步的方式连接,则信息处理装置20可接收在外部装置中指定的BPM,并使用所接收的BPM作为指定BPM。此外,在这种情况下,可将经由BPM指定滑动器201指定的BPM发送给外部装置。
基调指定键盘202是模仿向其分配了预定音高范围(在该情况下为一个八度音)的键盘的图像,并且相应的乐音音高被分配给基调指定键盘202的各个键。响应于用户经由操作部分25指定基调,控制部分21获取分配给指定基调的乐音音高,并且将所获取的乐音音高存入RAM。随后,控制部分利用经由基调指定键盘202指定的基调来再现由用户从搜出结果中选择的乐音数据组中所包含的乐音数据所代表的乐音。即,控制部分21将用户从搜出结果中选择的乐音数据组中所包含的乐音数据的基调与指定基调同步(例如转置音乐以使得基调匹配)。可替换的,如果信息处理装置20与外部装置以与之同步的方式连接,则信息处理装置20可接收在外部装置中指定的基调,并使用所接收的基调作为指定基调。此外,在这种情况下,可将经由基调指定键盘202指定的基调发送给外部装置。
和弦指定框203是用于接收用户所指定的和弦的输入的输入框。一旦用户利用操作部分25指定并输入了诸如“Maj7”之类的和弦类型,则控制部分21就将输入的和弦类型存入RAM作为指定和弦。控制部分21获取来自搜出结果的具有经由和弦指定框203指定的和弦类型的乐音数据组作为搜出结果。和弦指定框203可显示和弦名称的下拉列表。可替换的,如果信息处理装置20与外部装置以与之同步的方式连接,则信息处理装置20可接收在外部装置中指定的和弦,并使用所接收的和弦作为指定和弦。此外,在这种情况下,可将经由和弦指定框203指定的和弦发送给外部装置。作为和弦输入的另一种形式,可以在显示部分上以与各种和弦类型相对应关系的方式显示按钮,从而任意一个显示的和弦类型都可以通过用户点击相应一个显示按钮来指定。
如上搜出的乐音数据组的列表被显示在显示部分24的下部区域。用户可通过在前述搜出结果的列表中指定表示不同演奏部件的标签中(下文中称为“部件标签”)的任意一个来对每个演奏部件显示搜出乐音数据组的列表。如果用户已经指定了鼓的部件标签,则用户可进一步在操作部分(在该情况下为键盘)25上按下具有为其分配的向上箭头、向右箭头和向左箭头的键中的任意一个键,响应于此,控制部分21显示与用户按下的部件标签相对应的诸如低音鼓、踩镲和钹之类的演奏部件之一的搜出结果。在部件标签中存在一个标有“再现历史”的标签,利用搜出结果的该标签,用户在这以前已经选择的并随后被可听地再现的乐音数据组被显示出来。除了前述标签之外,标有“自动伴奏数据”的标签可被提供来显示自动伴奏数据组的列表,其中每个自动伴奏数据组都包括用户期望的各个演奏部件的波形数据的被登记的组合,从而用户可以随后搜索登记的自动伴奏数据组中的任意一个。
在搜出结果中,项目“次序”代表了搜出乐音数据组中与输入节奏模式的相似度的升序排列次序。项目“文件名称”代表了搜出乐音数据组的各个数据组的文件名称。项目“相似度”代表了针对搜出乐音数据组中的每一个乐音数据组的节奏模式与输入节奏模式的距离。即,“相似性”的较小值代表了与输入节奏模式的较小距离,因此代表了与输入节奏模式的较高的相似度。在显示搜出结果时,控制部分21显示乐音数据组的各自名称以及按照相似度的升序的相关信息。项目“基调”代表了针对搜出乐音数据组中的每一个的将被用于对乐音数据组进行音高转换的基本音高;注意,与节奏乐器相对应的演奏部件的乐音数据组的“基调”被显示为“未指定”。项目“流派”代表针对搜出乐音数据组中的每一个的乐音数据组所属的流派。项目“BPM”代表了针对搜出乐音数据组中的每一个的乐音数据组的BPM,更具体地是乐音数据组所代表的乐音的初始BPM。“部件名称”代表针对搜出乐音数据组中的每一个的包含在乐音数据组中的部件ID所识别的演奏部件的名称。此处,用户可在利用“基调”、“流派”和“BPM”中的至少一个对结果进行过滤之后显示搜出结果。
回过来参考图7,一旦用户选择了显示作为搜出结果的乐音数据组之一、并利用例如鼠标对所选的乐音数据组进行双击,则控制部分21将用户所选乐音数据组识别为当前正创建的自动伴奏数据组的演奏部件之一的数据组,并随后将识别的数据组记录在RAM的自动演奏数据表格(存储器)的对应于该演奏部件的行中(步骤Sa7)。这时,控制部分21在搜出结果的显示屏上以不同于其它或未选乐音数据组的背景的颜色显示所选并双击的乐音数据组的背景。
随后,控制部分21从基于小节线时钟的数据位置读出在步骤Sa7中识别并在自动伴奏数据表格(存储器)中登记的各个演奏部件的乐音数据,随后在根据需要而对乐音数据所代表的乐音以下列方式执行时间拉伸处理以及音高转换之后可听地再现乐音数据:使得乐音数据以基于与各个乐音数据相关联的BPM和用户指定BPM之间的关系的速度来再现乐音数据,即,使所识别的乐音数据的BPM与用户指定BPM同步(步骤Sa8)。前述输入BPM在第一次执行搜索时被用作用户指定BPM。随后,如果用户已经经由BPM指定滑动器201对照搜出结果指定了BPM,则由此指定的BPM被采用。作为替换,控制部分21可从小节线的头部而不是基于小节线时钟的数据位置读出乐音数据。
图12是说明BPM同步处理的示意图。虽然可以按照公知的方式执行时间拉伸处理,但是也可以如下执行。如果乐音数据组是WAVE、mp3或其它格式的音频文件,则乐音数据组的再现声音质量将随着乐音数据组的BPM和用户指定BPM之间的差异变大而劣化。为了避免这种不便,控制部分21执行如下操作。如果“(乐音数据的BPM×(1/21/2))<(用户指定BPM)<(乐音数据的BPM×21/2)”,则控制部分21对乐音数据组执行时间拉伸处理,以使得乐音数据的BPM等于用户指定BPM(图12的(a))。而且,如果“(用户指定BPM)<(乐音数据的BPM×(1/21/2))”,则控制部分21对乐音数据组执行时间拉伸处理,以使得乐音数据的BPM等于用户指定BPM的两倍(图12的(b))。而且,如果(乐音数据的BPM×21/2)<(用户指定BPM),则控制部分21对乐音数据执行时间拉伸处理,以使得乐音数据的BPM等于用户指定BPM的一半(图12的(c))。在前述方式中,可以最小化其中乐音数据的再现声音质量将由于乐音数据的BPM和用户指定BPM之间的巨大差异而恶化的情况的可能性。注意,系数“(1/21/2)”和“21/2”仅仅是示例性的,可以是其它值。在前述方式中,在用户输入节奏模式中的ON-设定时刻和OFF-设定时刻之间的差已经由于用户长时间按下键而变大或者反过来由于用户短时间按下键而变小时,可以将被时间拉伸处理所延展的声音长度的变化保持在预定范围内。结果,可以显著地减小用户响应于输入节奏模式而从搜出结果感觉到的不舒服感。
并且,当用户已经经由键指定滑动器202指定了基调时,控制部分21根据与乐音数据组相关联的基调与指定基调之间的差异来再现乐音数据组所代表的音高转换后的乐音的乐音数据组,即,使识别出的乐音数据组的基调与指定基调同步。例如,如果与乐音数据组相关联的基调是“C”而指定基调是“A”,则存在提高识别出的乐音数据组的音高以及降低识别出的乐音数据组的音高这两个可用方案。该实施例采用提高识别出的乐音数据组的方案,这是因为该情况所要求的音高偏移量相对较小,并且预期有较小的声音质量恶化。
图13是示出了存储在存储部分22中的基调表格的示图。在基调表格中描述了其中每个基调中一个八度音程由十二音阶来表示的多个基调的名称以及被连续地分配给各个基调的键号。在执行音高转换时,控制部分21参考基调表格,并通过从对应于与识别的乐音数据组相关联的基调的基调编号减去与指定基调相对应的基调编号来计算预定值。该预定值在下文中将被称为“基调差”。随后,如果“-6≤基调差≤6”,控制部分21对识别出的乐音数据进行音高转换,以使乐音的频率变为“2(基调差/12)”。并且,如果“基调差>7”,则控制部分21对识别出的乐音数据进行音高转换,以使乐音的频率变为“2(基调差-12)/12”。此外,如果“基调差<-7”,则控制部分21对识别出的乐音数据进行音高转换,以使由乐音数据代表的乐音的频率变为“2(基调差+12)/12”。控制部分21使音高转换后的乐音数据所代表的乐音经由声音输出部分26可听地输出。前述数学表达是示意性的,它们可以是预定的以确保再现声音质量。
此外,当用户已经经由和弦指定框203指定了和弦时,控制部分21再现已经根据从搜出结果中选择的乐音数据组中的指定和弦而进行了音高转换的乐音数据。即,控制部分21在将识别出的乐音数据音高转换成指定和弦之后再现识别出的乐音数据的和弦。
在步骤Sa8之后的步骤Sa8b,确定用户是否操作了预定的搜索键(未示出)。如果用户给出了搜索指令(即步骤Sa8b中的肯定确定),则控制部分21返回步骤Sa5(搜索处理)。于是,再次执行步骤Sa5的搜索处理,其中将所识别的乐音数据组(部件演奏数据)的声音生成模式用作新的查询模式。通过这种方式,基于响应于用户通过节奏输入装置10输入的查询模式的搜出结果,并使用搜出结果中包含的现有乐音数据组的声音生成模式(部件演奏数据)作为新的查询模式来执行新的搜索(重新搜索)。于是,在用户没有精确输入查询模式的情况下,可以将精确的声音生成模式用作重新搜索的查询模式。因此可以使得搜索输入操作对于用户而言更为简单。
一旦用户在步骤Sa8b的否定确定的情况下从搜出结果中选择并双击另一乐音数据组(步骤Sa9的肯定确定),则控制部分21返回步骤Sa7。在这种情况下,控制部分21将新选择的乐音数据组识别为当前正创建的自动伴奏数据组的演奏部件之一(步骤Sa7),随后其执行步骤Sa8的操作。注意,乐音数据组可以被登记,直到它们达到作为自动伴奏数据组的组成的演奏部件的预定数量。即,每个演奏部件具有可登记的乐音数据组的上限数量,例如对于鼓部件有多达四个通道、对于贝司部件有一个通道、对于和弦部件有多达三个通道等。例如,如果用户试图指定五个鼓部件,则新指定的乐音数据组将被登记来代替目前为止已再现的鼓乐音数据组。
一旦用户在步骤Sa8之后指示终止搜索处理(步骤Sa10的肯定确定)而不从搜出结果中选择另一乐音数据组(步骤Sa9的否定确定),则控制部分21将自动伴奏数据表格和该表格所指定的文件组合成单个数据文件,并将该数据文件存入存储部分22(步骤Sa11),随后使处理流程结束。用户可使用操作部分25来根据需要读出存储部分2中存储的自动伴奏数据组。另一方面,如果用户还没有指示终止搜索处理(步骤Sa10的否定确定),则控制部分21回到步骤Sa1。随后,用户选择不同的演奏部件,并且经由节奏输入装置10输入节奏模式,响应于该节奏模式执行如上所述的后续处理。因此,登记了自动演奏数据组中的不同演奏部件的乐音数据组。在上述方式中,响应于用户继续执行操作,创建自动伴奏数据组,直到完成了创建自动伴奏数据组所需的预定数量的演奏部件的登记。此外,以与当前再现的演奏部件的乐音数据组所代表的乐音重叠的方式可听地输出新选择的演奏部件的乐音数据组所代表的乐音。这时,由于控制部分21从基于小节线时钟的数据位置读出乐音数据,因此以相互同步的方式输出多个演奏部件的乐音数据组的乐音。
作为各个演奏部件的进程的形式,可以构想出下述三种变型。对于演奏前进(或进程)定时的同步控制,可以以利用类似“每小节”、“每两拍”、“每一拍”、“每八分”以及“无指定”的标准中的任一标准量化的定时,再现根据预定设置搜出的由用户指定的自动伴奏数据组。即,根据上述进程的第一形式,在小节的开头实现同步。在这种情况下,在用户指定每个演奏部件的伴奏之后,一旦小节线时钟信号到达相应小节的开头,就从该小节的开头位置再现乐音数据。根据上述进程的第二形式,在节拍的开头实现同步。在这种情况下,在用户指定每个演奏部件的伴奏之后,一旦小节线时钟信号到达相应节拍的开头,就从该节拍位置再现乐音数据。根据进程的第三形式,不实现同步。在这种情况下,紧接着在用户指定每个演奏部件的伴奏之后,从相应的进程位置再现乐音数据组。进程形式的这些变型的设置预先存储在存储部分22中,从而用户可以经由操作部分25读出任意一个期望的预存设置。
1-2-2.再现
下面描述控制部分21在循环再现模式、演奏再现模式和演奏循环再现模式中的每一个下所执行的处理。如上所述,通过将输入节奏模式进行输入,(在循环再现模式和演奏循环再现模式中的每一个下)用户可基于搜出的节奏模式记录来可听地输出声音。并且,如上所述,用户可利用搜出的节奏模式记录的组成音符对节奏输入装置10执行演奏操作,以允许可听地输出对应于(在循环再现模式和演奏循环再现模式中的每一个中的)演奏操作的乐句(音乐乐句)的声音。下面的描述解释了循环再现模式、演奏再现模式和演奏循环再现模式之间的差异。
图14是循环再现模式下由控制部分21执行的处理的示意性说明示图。循环再现模式是这样一种模式,其中,控制部分21根据小节线时钟输出部分211所指示的BPM(节拍/分钟)且与伴奏合拍地重复输出基于一个小节的搜出节奏模式记录的声音作为再现对象。一旦小节线时钟通过搜出节奏模式记录的一个小节内的组成音符中的任意一个的声音产生开始时刻,则控制部分21将该个组成音符设置为再现对象。此处,一旦小节线时钟到达值“1”,即一旦经过了一个小节,则小节线时钟再次取“0”值,此后小节线时钟重复取“0”至“1”的值。因此,利用小节线时钟的重复周期,基于搜出的节奏模式记录的声音被重复地输出作为再现对象。在图14所示的示例中,每当小节线时钟通过搜出节奏模式的一个小节内的组成音符中的任意一个的声音产生开始时刻,则控制部分21将该组成音符设置为再现对象,如箭头所示。即,循环再现模式是在用户希望确知搜出节奏模式包括何种类型的音量、音色和节奏模式时初始地指定的模式。
图15是演奏再现模式下由控制部分21执行的处理的示意性说明示图。演奏再现模式是这样一种模式,其中,一旦用户经由节奏输入装置10执行了演奏操作,则与已经执行了演奏操作的时刻相对应的搜出节奏模式的组成声音或音符被控制部分21设置为处理对象。在演奏再现模式中,一个组成音符仅仅在已经执行了演奏操作的时刻被设置为再现对象。即,在演奏再现模式中,不同于循环再现模式,在用户不执行演奏操作时完全不输出声音。即,在演奏再现模式中,当用户以与搜出的节奏模式完全相同的节奏模式执行演奏操作时,仅仅可听地输出只基于搜出节奏模式的声音。换言之,演奏再现模式是当用户希望由他自己或她自己来利用搜出节奏模式的组成音符持续地执行演奏时指定的模式。
在图15中,示出了用户已经在由双向箭头所指示的各个时间周期(“01”-“06”)内的由箭头指示的时间点利用节奏输入装置10执行了演奏操作。更具体地说,在演奏再现模式中,向控制部分21输入了四种类型的参数,即,速度数据、触发数据、搜出节奏模式的各个组成音符的声音产生开始时刻、以及各个组成音符的波形。在这些参数中,速度数据和触发数据基于用户通过节奏输入装置10输入的节奏模式。并且,搜出节奏模式的各个组成音符的声音产生开始时刻和波形包含在搜出的节奏模式记录中。在演奏再现模式中,每次用户通过节奏输入装置10执行演奏操作时,向控制部分21输入速度数据和触发数据,从而控制部分21执行下述处理。即,控制部分21向声音输出部分26输出其声音产生时刻与触发数据的ON-设定时刻差别最小的搜出节奏模式的组成音符中的任意一个的波形,同时指定与速度数据相对应的音量。
此外,每当用户执行演奏操作时,控制部分21都将在与演奏操作对应的声音产生时间点再现的乐音数据存储到存储部分22中,来作为已经响应于演奏操作做出改变的临时乐音数据。然后,响应于用户的每个操作,将这些临时乐音数据重写到与用户操作对应的波形的乐音数据中。当这些临时乐音数据已经在自动伴奏数据的再现期间存储到存储部分22中之后,基于最新的临时乐音数据执行声音再现。更具体来说,当临时乐音数据已经存储到存储部分22中之后,在步骤Sa11基于该临时乐音数据和其它所选演奏部件的乐音数据来记录自动伴奏数据和乐音数据的文件。即,根据本实施例,通过用户在自动伴奏数据的再现期间操作任一个演奏操作器,可以对对应于所操作演奏操作器的演奏部件的乐音数据进行编辑以创建新的自动伴奏数据。
可以通过将搜出节奏模式的各个组成音符的击打强度添加到控制部分21作为输入参数来实现下面的布置。在这种情况下,控制部分21可以向声音输出部分26输出其声音产生时刻与触发数据的ON-设定时刻差别最小的搜出节奏模式的组成音符中的任意一个的波形,同时指定与对应于组成音符的击打强度的速度数据相对应的音量。注意,与未输入触发数据的部分相对应的组成音符的波形不被输出至声音输出部分26。
接下来,演奏循环再现模式是作为循环再现模式和演奏再现模式的组合的模式。在演奏循环再现模式中,控制部分21按照每个小节确定用户是否已利用节奏输入装置10执行了任何演奏操作。在演奏循环再现模式中,控制部分21继续将基于搜出乐句的声音设置为再现对象,直到用户利用节奏输入装置10执行了演奏操作。即,在用户利用节奏输入装置10执行了演奏操作之前,控制部分21以与循环再现模式相同的方式工作。这样,一旦用户在给定小节内利用节奏输入装置10执行了演奏操作,只要该给定小节持续,控制部分21就以与演奏再现模式相同的方式工作。即,搜出乐句的对应于用户已经执行了演奏操作的时刻的一个组成音符被控制部分21设置为再现对象。在演奏循环再现模式中,如果用户在一个小节执行至少一个演奏操作但是在后续小节中不执行任何演奏操作,则对应于用户在前一个小节中进行输入的时间点的搜出乐句的每个组成音符被设置为再现对象,并且通过控制部分21可听地产生。控制部分21将经过用户操控的演奏部件的乐音数据存储到存储部分22中,来作为已经根据各个演奏操作做出改变的临时乐音数据。然后,每当用户执行操作时,通过控制部分将这些临时乐音数据重写到与用户操作对应的波形的乐音数据中。当这些临时乐音数据已经在自动伴奏数据的再现期间存储到存储部分22中之后,基于最新的临时乐音数据执行声音再现。在步骤Sa11基于该临时乐音数据和其它所选演奏部件的乐音数据来记录自动伴奏数据和乐音数据的文件。即,根据本实施例,通过用户在自动伴奏数据的再现期间操作任一个演奏操作器,可以对对应于所操作演奏操作器的演奏部件的乐音数据进行编辑以创建新的自动伴奏数据。演奏循环再现模式是用户不仅希望利用搜出节奏模式的组成音符执行演奏、而且希望以用户输入的节奏模式循环再现搜出节奏模式的组成音符时指定的模式。
根据上述本发明的第一实施例,可以从基于用户期望的乐音模式搜出的与自动伴奏相关的乐音数据组中识别出至少与用户期望的乐音模式最接近的特定乐音数据。此时,用户在对与多个演奏控件或操作器相关联的多个不同演奏部件中的期望的一个进行选择之后输入节奏模式,因此,如果用户想出一个特定演奏部件的节奏模式,用户就能通过选择该特定演奏部件并输入所想到的节奏模式而执行搜索。另外,由于用户仅需要选择演奏部件,输入节奏模式并且将任一个搜出结果登记为演奏部件的演奏,因此第一实施例允许用户直观且有效地搜索自动伴奏数据组。此外,由于用户选择的自动伴奏数据是以与搜出的自动伴奏数据同步的方式再现的,因此用户能够直观且有效地获得演奏部件的自动伴奏声音的合奏声音。
2.第二实施例
接下来将描述本发明的第二实施例。
<风格数据搜索系统>
2-1.结构
本发明的第二实施例是作为本发明的音乐数据处理系统的示例的用于搜索风格数据组的系统。除了自动伴奏数据库221中存储了风格数据组并包括用于搜索风格数据组的风格表格之外,第二实施例的结构类似于上述第一实施例。
如第一实施例一样,本示例实施例中的风格数据被读入电子乐器、音序器等,从而用作例如所谓的自动伴奏数据组。首先,下面说明了在本示例实施例中采用的风格数据以及相关数据。
每个风格数据组包括针对每个不同风格(例如“Bebop01”、“HardRock01”以及“Salsa01”)搜集的并且被组合成多个分段(一至若干个小节)(每个分段都是伴奏模式的最小单位)的每一个的分段数据的伴奏声数据片段的集合,并且这样的风格数据组被存入存储部分22中。在本示例实施例中,在每个分段中提供了多个类型的分段,例如类似“前奏(intro)”、“主奏(main)”、“加花(fill-in)”和“尾奏(ending)”之类的结构类型以及类似“正常”、“变调1”和“变调2”之类的模式类型。并且,每个分段的风格数据包括针对低音鼓、小鼓、踩镲、钹、乐句(旋律乐句)、和弦以及贝司演奏部件中的每一个以MIDI格式来描述的演奏数据的识别符(节奏模式ID)。对于风格数据组的每个分段,控制部分21针对每个部件分析演奏数据的节奏模式,从而与分析结果相对应的内容被登记在风格表格中。例如,对于贝司部件的演奏数据,控制部分21通过利用预定基本音高来分析演奏数据中的乐音音高的时间序列,随后其将对应于分析结果的内容登记在风格表格中。并且,对于和弦部件的演奏数据,控制部分21通过利用预定基本和弦来分析演奏数据中使用的和弦,随后其将诸如“Cmaj7”之类的和弦信息作为与分析结果对应的内容,登记在后面将要描述的和弦前进信息表格中。
此外,本实施例包括分段前进信息以及与各个风格数据组具有对应关系的和弦前进信息。该分段前进信息是用于以时序方式根据乐曲演奏从风格数据组中顺序指定各分段的信息。和弦前进信息是用于以时序方式顺序指定将要根据乐曲演奏的前进而演奏的和弦的信息。一旦选择了某个风格数据组,就根据与所选风格数据组对应的分段前进信息及和弦前进信息,将数据登记在分段前进信息表格以及和弦前进信息表格中。可替换的,可响应于用户的指定来选择各个分段,而不使用分段前进信息。作为另一替换方案,可通过经由键盘11输入的音符来识别和弦信息,而不使用和弦前进信息,从而可根据识别出的和弦信息来再现伴奏。和弦信息包括表示和弦的根音以及表示和弦的类型的信息。
以下描述风格数据的结构。图16A和图16B是与风格数据相关的表格的示例。首先,下文简要描述风格表格、分段前进信息、和弦前进信息等。
图16A是示出了风格表格的示例的示图,其中示出了“流派”是“Swing&Jazz”的多个风格数据组。每个风格数据组都包括多个项目,例如“风格ID”、“风格名称”、“分段”、“基调”、“流派”、“BPM”、“音乐拍子”、“贝司节奏模式ID”、“和弦节奏模式ID”、“乐句节奏模式ID”、“低音鼓节奏模式ID”、“小鼓节奏模式ID”、“踩镲节奏模式ID”以及“钹节奏模式ID”。“风格ID”是唯一地识别风格数据组的识别符,并且“风格名称”也是唯一地识别风格数据组的识别符。
在风格数据表格中,具有某一风格名称的风格数据组包括被分成多个片段的多个分段,例如,前奏(前奏-Ⅰ(正常)、前奏-Ⅱ(变调1)、前奏-Ⅲ(变调2))、主奏(主奏-A(正常)、主奏-B(变调1)、主奏-C(变调2)、主奏-D(变调3))以及尾奏(end01(正常)、end02(变调1)、end03(变调2))。每个片段都具有正常模式和变调模式,即,“分段”代表了具有某一名称的风格所属的分段。例如,一旦用户选择风格名称为“Bebop01”的风格并指示再现所选风格,则控制部分21根据风格名称为“Bebop01”的风格数据组中的其分段是前奏-正常模式“Ⅰ”的风格数据组,来再现乐音,随后根据其分段是main-正常模式“A”的风格数据组来重复地再现乐音预定次数,随后再现基于其分段是尾奏-正常模式“1”的风格数据组的乐音。在前述方式中,控制部分21根据所选风格的风格数据组按照各分段的顺序来再现乐音。“基调”表示作为用于对风格数据进行音高转换的基础的乐音音高。虽然“基调”在示例性示例中由音符名称指示,但是其实际上代表了乐音音高,这是因为其表示了特定八度音程中的音符名称。“流派”代表了风格数据组所属的音乐流派。“BPM”代表了对基于风格数据组的声音进行再现的拍速。“音乐拍子(musical time)”代表了风格数据组的音乐拍子的类型,例如三拍(triple time)或四拍(quadruple time)。一旦在演奏期间给出了变调改变指令,则将演奏切换成相应分段的变调模式,然后在变调模式演奏至结尾后返回正常模式。
在每个风格数据组中,部件专用节奏模式ID以一对一的关系与各个演奏部件相关联地存储。在图16A所示的示例中的风格ID是“0001”的风格数据组中,“贝司节奏模式ID”是“010010101”。这意味着,在图16A的节奏模式表格中:(1)部件ID是“01”(贝司)、节奏模式ID是“010010101”、节奏模式数据是“BebopBass01Rhythm.txt”以及乐音数据是“BebopBass01Rhythm.wav”的节奏模式记录、与(2)风格ID是“0001”的风格数据组相互关联。对于贝司部分之外的其它演奏部件的节奏模式ID,在各个风格数据组中描述了与上面类似的关联。一旦用户选择了某一风格名称的风格数据组并指示对所选风格数据组进行再现,控制部分21就以相互同步的方式对与所选风格数据组中包含的各个演奏部件的节奏模式ID相关联的乐音数据进行再现。对于每个风格数据组,构成风格数据组的各个演奏部件的节奏模式ID的组合是预定的,从而该组合指定了彼此很好地相互适合的节奏模式记录。例如,可根据不同演奏部件的节奏模式记录具有相同或相近的BPM、具有相同音乐基调、属于相同流派和/或具有相同的音乐拍子的因素来预定“彼此很好地相互适合的节奏模式记录”。
图16B的(a)示出了分段前进信息表格的示例。分段前进信息表格是包括用于根据乐曲演奏的前进来以时序方式从风格数据组中依次指定各分段的分段前进信息的组合的表格。如图16B的(a)的示例所示,每个分段前进信息可包括风格ID、用于指定风格的风格指定数据St、用于指定分段的分段信息Sni、表示每个分段的开始时间和结束时间(通常以每小节为单位)位置的分段开始/结束定时数据Tssi和Tsei(i=1,2,3…)、以及表示分段前进信息的最终结束位置的分段前进结束数据Se,并且例如,这种分段前进信息被存储在存储部分22中。即,每个分段信息Sni都指定了与相应分段相关联的数据的存储区域,并且位于分段信息Sni之前和之后的定时数据Tssi和Tsei指示了基于指定分段的伴奏的开始和结束。因此,使用分段前进信息,可以从伴奏风格指定数据St所指定的伴奏风格数据组中顺序指定由定时数据Tssi和Tsei以及分段信息Sni的组合所重复的分段。
图16B的(b)示出了和弦前进信息表格的示例。和弦前进信息表格是包括用于根据乐曲演奏的前进来以时序方式依次指定将被执行的和弦的多个和弦前进信息的表格。如图16B的(b)的示例所示,每个和弦前进信息可包括:风格ID、基调信息Key、和弦名称Cnj、用于定义和弦名称Cnj的和弦根音符信息Crj、和弦类型信息Ctj、表示和弦的开始和结束时间位置(通常以节拍表示)的和弦开始和结束定时数据Tcsj和Tcej(j=1,2,3…)、以及表示和弦前进信息的最终结束位置的和弦前进结束数据Ce,并且例如,这些和弦前进信息被存储在存储部分22中。此处,由两个信息Crj和Ctj定义的和弦信息Cnj指示了将在分段信息Sni所指定的分段内针对和弦演奏数据来演奏的和弦的类型,并且位于该分段之前和之后的定时数据Tsci和Tcei指示了和弦的演奏的开始和结束。因此,使用这样的和弦前进信息,可以通过在由基调信息Key指定了音乐基调之后重复定时数据Tsci和Tcei以及弦信息Cnj的组合来依次指定将被演奏的和弦。
注意,虽然按小节或节拍来设定了分段前进信息和和弦前进信息的定时,但是可根据需要使用任意其它期望的定时;例如,可根据时钟定时来设定分段前进信息以及和弦前进信息的定时,并且从乐曲的小节开头开始的时钟定时数量可用作各种定时数据。并且,在给定分段Sni或和弦Cnj之后刚好开始下一区Sni+1或和弦Cnj+1的情况下,可以省略开始定时Tss+1或Tcei+1或者省略结束定时Tsei或Tcei。
下文简要地解释了从分段信息和和弦前进信息获取期望演奏声音的方法。控制部分21从“分段前进信息”读出由依次读出的分段信息Sni指定的各分段的伴奏风格指定数据St和伴奏声音数据片段(例如,“Bebopo1”的“Main-A”),并随后将读出的伴奏数据风格指定数据St和伴奏声音数据片段存储在RAM中。此处,根据基本和弦(例如“Cmaj”)存储与各个部分相关的数据。存储部分22包含其中具有用于根据基本和弦将伴奏声音数据片段转换成基于期望和弦的声音的期望转换规则的转换表格。随着依次从和弦进程表格读出的期望和弦信息Cnj(例如“Dmaj”)被提供给控制部分21,基于基本和弦的伴奏声音数据片段被根据转换表格转换成基于读出的期望和弦信息Cnj的声音。声音输出部分26输出由此转换的声音。每次从分段前进信息读出的分段信息改变成另一个时,提供给控制部分21的伴奏声音数据片段就改变,从而可听地产生的声音也改变。而且,每次从和弦前进信息读出的和弦信息改变成另一个,转换规则就改变,从而可听地产生的声音改变。
2-2.行为
图17是第二实施例中的信息处理装置20所执行的处理的流程图。在图17中,步骤Sd0至Sd5的操作类似于在第一实施例中执行的图7的步骤Sa0至Sa5的上述操作。在第二实施例的步骤Sd6中,控制部分21显示其中在步骤Sd5中搜出的与模式记录相同的模式ID被设置为任意演奏部件的节奏模式ID的风格数据组,来作为搜出结果。
图18A和18B是示出了风格数据组的搜出结果或搜出的风格数据组的示例的示意图。图18A示出了在被控制部分21根据用户经由和弦输入范围键盘11b输入的节奏模式而输出作为搜出结果之后显示在显示部分24的风格数据组。在图18A至18C中,项目“相似度”代表了输入节奏模式与每个搜出风格数据组的节奏模式之间的相似度距离。即,“相似度值”的较小的值表示搜出风格数据组的节奏模式具有与输入节奏模式较高的相似度。如图18A所示,以与输入节奏模式的“相似度”(即,步骤Sb7中计算出的节奏模式之间的距离)的升序(即,以与输入节奏模式的相似度的降序)显示了风格数据组。此处,用户可在利用项目“基调”、“流派”和“BPM”中的至少一个而过滤结果之后显示搜出结果。并且,用户输入节奏模式的BPM(即输入BPM)被显示在搜出结果上方的输入BPM显示部分301上。在搜出结果上方,还显示了用户利用输入BPM过滤搜出风格数据组的拍速过滤器302,以及用于利用指定音乐拍子来过滤搜出风格数据组的音乐拍子过滤器303。此外,可显示项目“和弦”、“音阶”以及“音色”,从而可在用户已经指定了“和弦”项目时利用在和弦部件中使用的和弦来执行过滤、在用户已经指定了“音阶”项目时利用在创建风格数据所使用的基调来执行过滤、以及/或者在用户已经指定了“音色”项目时利用各个演奏部件的音色来执行过滤。
控制部分21具有用于仅仅输出BPM接近用户输入BPM的风格数据作为搜出结果的过滤功能,并且用户可根据需要经由操作部分25将过滤功能的ON或OFF设置在搜出结果上显示的拍速过滤器302中。更具体地说,每个风格数据具有前面提到的自己的BPM,因此,当过滤功能为ON时,控制部分21可显示与每个具有例如输入BPM的(1/21/2)”至(21/2)倍的范围内的BPM的多个风格数据组有关的信息,来作为搜出结果。注意,前面提到的应用至输入BPM的系数(1/21/2)”至(21/2)仅仅是示例性的,可以是其它值。
图18B示出了其中用户已经从图18A所示的状态打开过滤功能的状态。在图18B中,控制部分21正使用系数(1/21/2)”至(21/2)来执行过滤。即,在图18B中,由于输入BPM为“100”,因此具有处于71至141的范围内的BPM的风格数据组被显示为过滤结果。这样,用户可获取BPM接近输入BPM的风格数据组作为搜出结果,从而用户具有对搜出结果更满意的感觉。
并且,通过经由操作部分25向音乐拍子过滤器303输入表示期望音乐拍子的信息,例如4-4(4/4)拍,用户可执行过滤,从而使表示与输入音乐拍子信息相关的风格数据组的信息被显示为搜出结果。注意,不仅可以通过缩窄至指定音乐拍子的风格数据组来提取风格数据组,而且可以通过缩窄至与指定音乐拍子相关的之前成组的音乐拍子的风格数据组来提取风格数据组。例如,在指定了四拍时,不仅可以提取缩窄至四拍的风格数据组,而且可以提取可以容易地经由四拍节拍器输入的两拍和六八拍的风格数据组。
并且,用户可通过首先指定演奏部件并输入用于搜索与输入演奏模式接近的节奏模式的风格数据组(第一搜索处理)的节奏模式、并随后指定另一演奏部件且输入节奏模式来再次搜索风格数据组(第二搜索处理),来从第一搜出风格数据获取缩窄的第二搜出结果。在这种情况下,搜出结果中的相似度距离是每个风格数据组中在第一搜索中指定的演奏部件中的相似度的值与第二搜索中指定的演奏部件中的相似度的值之和。例如,图18C示出了作为在正在显示图18A的搜出结果的状态下用户指定踩镲部分作为演奏部件并输入节奏模式的结果而显示的内容。并且,在图18C中,输入至音乐拍子过滤器303的音乐拍子信息为“4/4”的风格数据组作为搜出结果被显示。图18C中的“相似度”是在每个风格数据组中通过将其中目标演奏部件是“和弦”的情况中的相似度值和其中目标演奏部件是“踩镲”的情况的相似度值加和而获取的值。虽然图18C示出了可利用由项目“第一搜索部件”和“第二搜索部件”所表示的两个演奏部件来执行搜索处理,但是能够被指定用于搜索目的的演奏部件的数量并不受限而可以是任何期望数量。并且,如果用户在指定了演奏部件(第一搜索部件)的第一搜索之后输入指定了不同于第一次指定的演奏部件(第一搜索部件)的演奏部件(第二搜索部件)的节奏模式,则控制部分21可仅仅输出采用(指定)第二搜索部件的搜出结果,而不管采用(指定)第一搜索部件的搜出结果(这种类型的搜索将被称为“覆写搜索”)。用户可以利用信息处理装置20的操作部分25在缩窄搜索和覆写搜索之间进行切换。
可以按照不同于前述方式的任意其它方式来执行其中指定了多个不同演奏部件的搜索。例如,当用户已经在指定多个演奏部件的同时执行了演奏操作时,可执行下述处理。即,控制部分21针对每个指定部件,计算具有由用户指定的演奏部件的部件ID的节奏模式记录与演奏部件的输入节奏模式之间的相似度。随后,控制部分21针对与各节奏模式记录相关联的每个风格数据组将针对各个指定的演奏部件的节奏模式记录计算的相似度相加在一起。随后,显示部分24以相加后的相似度距离的升序(即,从所相加后的最小距离的风格数据组开始(即,从与输入节奏模式最相近的风格数据开始))来显示风格数据。例如,当用户已经同时针对低音鼓和小鼓部件通过执行演奏操作而输入了节奏模式时,控制部分21计算低音鼓和小鼓各自的相似度,并将这些相似度相加在一起。通过上述方式,用户可以同时指定多个部件来搜索具有以与用户期望节奏模式的相似度值满足预定条件的节奏模式构建的乐句的风格数据组。
一旦用户在图18A至18C中任一个的图示示例中经由操作部分25选择了任意期望的风格数据组,控制部分21就识别用户所选的风格数据组(步骤Sd7)并在显示部分24上显示所识别出的风格数据组的配置显示屏。
图19是示出风格数据配置显示屏的示例的示图。为了便于说明,在此假设用户已经从搜出结果中选择了风格名称为“Bebop01”的风格数据组。所选风格数据组的风格名称、基调、BPM以及音乐拍子被显示在配置显示屏的上部区域中,表示分段(分段标签)的标签401被显示在配置显示屏的中间区域中,任一标签所表示的分段的各个演奏部件的信息被展开并被显示在各个音轨中。在每个演奏部件的信息中,显示了各个节奏模式记录中的BPM、节奏模式和基调。在图19中,图中的水平轴是表示时间在从左向右的方向上前进的时间轴。此外,基于标签所指示分段的各个音轨所表示的各个演奏部件的节奏模式,在与各个组成音符的声音产生时刻相对应的位置处显示预定图像402,其中图像402的显示区域的左端对应于代表各个组成音符的声音产生开始时刻的位置。此处,每个图像402以在配置显示屏的垂直方向上具有预定尺寸的条状进行显示。一旦用户经由操作部分25选择了期望的一个分段标签401,控制部分21根据所选标签的分段的风格数据来再现乐音(步骤Sd8)。注意,在配置显示屏上,可以通过未示出的操作器的操作来登记、编辑、确认和检查用户创建的原始风格数据组、以及包含在现有和原始风格数据组中的演奏数据。
信息处理装置20可响应于用户在风格数据配置显示屏上操作未示出的操作器而给出的再现开始指令来再现风格数据组。在所示示例中,提供了三种再现操作模式:自动伴奏模式、替换搜索模式以及跟随搜索模式。用户可通过使用操作部分25在三种模式间进行切换。在自动伴奏模式中,基于所选风格数据组的演奏数据被再现,而且用户可利用节奏输入装置10和操作部分25来执行演奏操作,从而使基于用户演奏操作的声音与基于所选风格数据组的乐音一起输出。控制部分21还具有静音功能,从而用户可使用操作部分25来使静音功能对期望演奏部件起作用,由此可防止期望演奏部件的演奏数据被可听地再现。在这种情况下,用户自己可以在将未静音的演奏部件像伴奏声音源一样聆听的同时,针对静音的演奏部件执行演奏操作。
此外,在替换搜索模式中,控制部分21响应于用户在经由操作部分25将输入节奏模式输入节奏输入装置10、指定了期望的演奏部件而执行下述处理。在这种情况下,控制部分21利用从基于输入节奏模式的搜出结果中选出的演奏数据,替换包含在当前再现的风格数据组的之前组合的演奏数据中的指定演奏部件的演奏数据。更具体地说,这时,一旦用户在指定了期望的演奏部件之后经由节奏输入装置10输入了节奏模式,控制部分21就针对指定的演奏部件执行前述搜索处理,随后在显示部分24上显示类似图11的搜出结果。一旦用户选择了特定的一个搜出结果,则控制部分21就利用所选演奏数据来替换包含在当前正再现的风格数据中的指定演奏部件的演奏数据,从而基于所选演奏数据执行演奏。这样,用户可利用基于其输入节奏模式的演奏数据来替换从搜出结果中选择的风格数据组的期望演奏数据的演奏数据。因此,用户不仅可以获取预先组合的风格数据组,而且可以获取其中反映了每个演奏部件和每个分段的期望节奏模式的风格数据组,由此用户通过使用信息处理装置20,不仅可以执行搜索,而且可以进行音乐制作。
此外,在跟随搜索模式中,响应于用户自己在将未静音的演奏部件像伴奏声音源一样聆听的同时针对利用静音功能静音的演奏部件执行演奏操作,控制部分21针对未对其执行演奏操作的每个演奏部件来搜索很适合于已经对其执行了演奏操作的部件的输入节奏模式的演奏数据。“很适合于输入节奏模式的演奏数据”可以是预定的,例如,基于与输入节奏模式具有同样基调、属于同一流派、以及与输入节奏模式具有相同音乐拍子、和/或具有处于距输入BPM预定范围内的BPM的任何因数来进行预定。一旦控制部分21从已执行了用户演奏操作的很适合于输入节奏模式的演奏数据中识别出具有最小相似度值(即,最大程度的相似)的演奏数据,其以相互同步的方式再现这些数据。因此,即使用户对搜出结果存在很低的满意度,用户也可以通过在指定了演奏部件之后仅对输入节奏模式进行输入来使要再现风格数据的很好地适合于其输入节奏模式。
在步骤Sd8之后的步骤Sd8b,确定在识别的风格记录(一组演奏数据)中指定了用户期望的演奏部件之后,用户是否操作了预定的搜索键(未示出)。如果用户利用所指定的用户期望的演奏部件给出了搜索指令(即步骤Sd8b中的肯定确定),则控制部分21返回步骤Sd5。于是,再次执行步骤Sd5的搜索处理,其中将所指定的演奏部件的乐音数据组的声音生成模式(部件演奏数据)用作新的查询模式。通过这种方式,基于响应于用户通过节奏输入装置10输入的查询模式的搜出结果,并使用搜出结果中包含的现有乐音数据组的声音生成模式(部件演奏数据)作为新的查询模式来执行新的搜索(重新搜索)。于是,在用户没有精确输入查询模式的情况下,可以将精确的声音生成模式用作重新搜索的查询模式。因此可以使得搜索输入操作对于用户而言更为简单。
一旦用户在步骤Sd8的否定确定的情况下经由操作部分25选择了另一风格数据(图17中步骤Sd9的肯定确定),控制部分21回到步骤Sd7。在这种情况下,控制部分21识别新选择的风格数据组(步骤Sd7),并在显示部分24上显示所识别的风格数据组的再现屏幕。随后,一旦用户在步骤Sd8后经由操作部分25指示终止搜索处理(步骤Sd10的肯定确定)而未选择另一风格数据(步骤Sd9的否定确定),则控制部分21使处理结束。
根据第二实施例,如上所述,用户通过执行演奏操作以针对所选演奏部件输入节奏模式,不仅可搜索与输入节奏模式相似的演奏部件的乐音数据组,而且可搜索包括与输入节奏模式类似的节奏模式的乐音数据组和很适合于输入节奏模式的乐音数据组的组合的部件风格数据组。并且,用户可利用与不同于第一输入节奏模式的另一输入节奏相似的乐音数据组来替换搜出风格数据组中包含的期望演奏部件的乐音数据组,或者通过改变搜出风格数据组来创建新的风格数据组。这样,用户可使用信息处理装置20来执行搜索以及音乐制作。
3.第三实施例
根据本发明第三实施例的音乐数据创建系统100除了上述第一实施例中的搜索功能还具有乐音数据编辑功能(或者代替前述搜索功能)。当通过搜索获得的乐音数据组所指示的演奏声音与用户期望不完全匹配时,用户可能想要修改乐音数据组。第三实施例设计为满足这种需求。下文中省略了第三实施例中的一些与第一或第二实施例相同或相似的特征,以免不必要的重复。
图27是示出了本发明的音乐数据创建系统100的第三实施例的功能配置的框图。控制部分21包括模式获取部分701、搜索部分702、指令接收部分703、乐音数据产生部分704、乐音再现部分705和登记部分706。模式获取部分701获取通过节奏输入装置10输入的与从多个演奏部件中选择的特定演奏部件组合的输入节奏模式(搜索查询模式)。搜索部分702基于输入节奏模式与特定演奏部件的节奏模式数据(参考数据或搜索目标数据)之间的比较结果,从自动伴奏数据库221中获取一个或多个乐音数据组(声音波形数据组)和与这一个或多个乐音数据组对应的节奏模式数据作为搜出结果。上文已经描述了,自动伴奏数据库221是其中针对多个演奏部件中的每一个登记了一个或多个乐音数据组以及表示乐音数据组中的各个节奏模式的节奏模式数据。指令接收部分703接收编辑指令,以编辑搜出结果中包括的节奏模式数据。乐音数据产生部分704生成与根据编辑指令编辑的节奏模式数据相对应的乐音数据。登记部分706将一组根据编辑指令编辑的节奏模式数据以及通过乐音数据产生部分704生成的与编辑的节奏模式数据相对应的乐音数据登记到自动伴奏数据库221中。
图28是示出了第三实施例中采用的UI屏幕示例的示图。在所示示例中,节奏输入装置10包括具有触摸屏的显示装置。图28示出了显示在节奏输入装置10提供的显示装置上的图像。该UI屏幕包括搜索区域81和音序器区域82。搜索区域81是用于输入搜索条件的区域,并且包括部件指定区域811、流派指定区域812、模板指定区域813、搜出结果显示区域814和搜索按钮815。下面将使用该UI屏幕来描述第三实施例的行为。
图29是示出了在音乐数据创建系统100的第三实施例中执行的处理的流程图。在步骤Se1,控制部分21确定在搜索区域81上是否执行了操作。如果在步骤Se1确定了在部件指定区域811上执行了操作(步骤Se1的“A”确定),则处理进入步骤Se2。如果在步骤Se1确定了在流派指定区域812上执行了操作(步骤Se1的“B”确定),则处理进入步骤Se3。如果在步骤Se1确定了在模板指定区域813上执行了操作(步骤Se1的“C”确定),则处理进入步骤Se4。如果在步骤Se1确定了在搜索按钮815上执行了操作(步骤Se1的“D”确定),则处理进入步骤Se11。如果在步骤Se1确定了在搜出结果显示区域814上执行了操作(步骤Se1的“E”确定),则处理进入步骤Se13。此外,如果未在搜索区域81上执行操作(步骤Se1的否定确定),则处理进入步骤Se14。
在步骤Se2,控制部分21根据用户通过部件指定区域811执行的操作来选择特定的演奏部件,部件指定区域811是用于指定(选择)期望的演奏部件的区域。不同的演奏部件分配给部件指定区域811的各个单元。在图28的示例中,从上到下地将“鼓”、“贝司”、“和弦”以及“乐句”分配给部件指定区域811的各单元。控制部分21选择分配给部件指定区域811的已经被用于在显示装置的触摸板上触摸的单元的特定演奏部件。在选择该特定演奏部件时,控制部分21移至步骤Se7以及后续步骤,以便使得所选的演奏部件可编辑。注意,可以实现允许在音序器屏幕上显示特定演奏部件的演奏模式的同时选择演奏部件的配置。这样,如果用户指定了(例如分配了贝司部件的)特定音轨,同时和弦部件的演奏模式正在音序器屏幕上进行显示,则可以在音序器屏幕上显示分配给该音轨的贝司部件的演奏模式。
在步骤Se3,控制部分21根据用户通过用于指定期望流派的流派指定区域812执行的操作选择了特定流派。不同的流派分配给流派指定区域812的各个单元。在图28的示例中,“ALL GENRE(全流派)”、“TECHNO(电子乐)”、“HOUSE(室内)”、“R&B(节奏布鲁斯)”、“CHILL(轻缓)”和“FUNK(疯克)”从上到下分配给流派指定区域812的各单元。控制部分21选择分配给流派指定区域812的已经被用于在显示装置的触摸板上触摸的单元的特定流派。在选择该特定流派时,控制部分21移至步骤Se1。
在步骤Se4,控制部分21确定是否已经通过模板指定区域813选择了任意模板。模板指定区域813是用户指定各种模板中的任一种的区域。每个模板代表乐音数据组的一部分,即假设具有高使用频率的典型乐音数据、用户预先登记的乐音数据、或者这些乐音数据的组合。
在模板指定区域813中显示与在部件指定区域811中指定的演奏部件与在流派指定区域812中指定的流派相对应的模板。一旦触摸板的与模板指定区域813的单元中的一个特定单元对应的触摸板位置被触摸,则选择了分配给特定单元的模板(乐音数据)。在图28的模板指定区域813中,“输入节奏”分配给最上面的单元,模板分配给其它单元。如果用户在模板指定区域813选择了任何已分配模板的单元(步骤Se4的肯定确定),则控制部分21进入步骤Se5。如果用户在模板指定区域813选择了已分配模板的单元之外的单元(步骤Se4的否定确定),则控制部分21进入步骤Se7。
在步骤Se5,控制部分21根据用户操作选择一个模板。在接下来的步骤Se6,控制部分21使用所选择的模板(在该示例中以循环方式)再现乐音。控制部分21在继续乐音再现的同时返回步骤Se1。
在步骤Se7,控制部分21在音序器区域82中显示与特定演奏部件对应的输入屏幕。在接下来的步骤Se8,控制部分21根据用户的操作编辑特定演奏部件的节奏模式。指令接收部分703和步骤Se8的操作共同实现编辑部分的功能。
图30是示出了音序器区域82中显示的输入屏幕示例的示图。图30所示的输入屏幕是选择“鼓”作为演奏部件时的屏幕,其具有二维构造排列的多个单元,其中水平方向代表时间的经过。在图30的示例中,每个单元代表与一个小节的1/16对应的时间周期(即对应于十六分音符的时间周期)。此外在图30的示例中,在水平方向(即每个水平行)上显示了16(十六)个单元,一个小节的节奏模式由这16个单元代表。包括16单元的每个水平行代表一个演奏部件的节奏模式。在所示示例中,从上到下的三个水平行代表“踩镲”、“小鼓”和“低音鼓”的节奏模式。
此外在图30的示例中,每个白色单元表示在相应的时间周期没有产生声音(即表示不发声状态),每个阴影单元表示存在产生的声音(音符事件)(即表示发声状态)。尽管在所示示例中仅表示了发声的存在与否,但也可以利用颜色、连续单元的长度等视觉显示任何参数,如音高(音符编号)、击打强度(速度)、和发声持续时间等。一旦用户触摸了任一单元,则被触摸的单元变成另一状态。例如,如果一个单元现在表示“不发声状态”,则该单元响应于用户的触摸操作变为表示发声状态,而如果一个单元现在表示“发声状态”,则该单元响应于用户的触摸操作变为表示不发声状态。
图31是示出了选择“贝斯”或“乐句”作为演奏部件时在音序器区域82上显示的输入屏幕的另一示例的示图。该输入屏幕具有以二维方向排列的多个单元,其中水平方向代表时间的经过,垂直方向代表音高(音符编号)。在图31的示例中,每个单元代表与一个小节的1/8对应的时间周期(即对应于八分音符的时间周期)。此外在图31的示例中,在水平方向(即每个水平行)上显示了8(八)个单元,一个小节的节奏模式由这8个单元代表。此外在所示示例中,每个白色单元表示在该时间周期没有产生声音(即表示不发声状态),每个阴影单元表示存在产生的声音(音符事件)(即表示发声状态)。一旦用户触摸了任一单元,则被触摸的单元变成另一状态。例如,如果一个单元现在表示“不发声状态”,则该单元响应于用户的触摸操作变为表示发声状态,而如果一个单元现在表示“发声状态”,则该单元响应于用户的触摸操作变为表示不发声状态。
控制部分21根据用户在图30或图31的输入屏幕上的操纵来编辑特定演奏部件的节奏模式,并且控制部分21将编辑的节奏模式存入RAM。控制部分21与编辑并行地根据正在编辑的节奏模式再现乐音。
回到图29,控制部分21在步骤Se9确定是否已经指示对编辑的节奏模式进行存储。例如通过用户触摸输入屏幕上的存储按钮(未示出)来指示存储节奏模式。如果在步骤Se9确定已经指示了存储节奏模式(步骤Se9的肯定确定),则控制部分21进入步骤Se10。如果如果在步骤Se9确定尚未指示存储节奏模式(步骤Se9的否定确定),则控制部分21返回步骤Se1。
在步骤Se10,控制部分21将与上述已给出存储指令的编辑后的节奏模式相对应的乐音数据组登记到自动伴奏数据库221中。通过这种方式,基于存储到自动伴奏数据库221中的编辑后的节奏模式,控制部分21能够生成相应的乐音数据组(波形数据)。例如,可以使用公知的基于MIDI数据生成波形数据的技术来基于输入节奏模式生成乐音数据。此外,控制部分21生成将用在自动伴奏数据库221中的信息(如节奏模式ID)。这样,在执行下一处理中以及之后,新登记的节奏模式也可以作为搜索目标。在完成将数据登记到自动伴奏数据库221之后,控制部分21返回步骤Se1。
在步骤Se11和Se12,按照与上述第一和第二实施例相似的方式执行节奏模式的搜索。在步骤Se11,控制部分21基于计算的相似度搜索与输入节奏模式(查询模式)具有相同或相似节奏模式的乐音数据组。这种对乐音数据组的搜索可以响应于对分配了模板的单元的选择来启动,或者响应于在选择了“输入节奏”单元的情况下用户对搜索按钮815的触摸(按下)操作而启动。搜索的细节与上述针对第一和第二实施例描述的相同。应当注意,图29所示的处理可以配置为,如果用户在步骤Se8的处理期间发出了搜索指令,则处理跳转到步骤Se11以将编辑后的或者正在编辑的节奏模式作为查询模式来执行对节奏模式的搜索。即,可以在图29所示的第三实施例中执行将编辑后的或者正在编辑的节奏模式作为新的查询模式的搜索。
在步骤Se12,控制部分21在用于显示搜出结果的搜出结果显示区域814显示搜出结果。按照预定次序(基本上按照在步骤Se11获得的相似度的降序)在搜出结果显示区域814中显示搜出结果中包含的乐音数据组的文件名。在存在具有相同相似度的多个节奏模式的情况下,按照基于预定的优先级的次序显示文件名,例如按照使用频率的降序、按照登记的次序、字母顺序等。在显示搜出结果之后,控制部分21返回步骤Se1。
在步骤Se13,控制部分21响应于用户操作从搜出结果中选择一个乐音数据组。具体来说,控制部分21选择分配给用户在结果显示区域814中触摸的单元的一个乐音数据组。在选择乐音数据组之后,控制部分21移至步骤Se7。在这种情况下,在步骤Se7,在输入屏幕上显示与所选择的乐音数据组对应的节奏模式。由于响应于上述对乐音数据组的选择显示了节奏模式,因此可以在显示节奏模式的同时再现乐音数据组。
在步骤Se14,控制部分21确定音序器区域82是否已经被用户操作。如果音序器区域82已被操作(步骤Se14中的肯定确定),则控制部分21移至步骤Se8。注意,如果在步骤Se8之前没有选择模板或乐音数据组,则已经移至步骤Se8的控制部分21返回步骤Se1,因为不存在要编辑的节奏模式。另一方面,如果在步骤Se14确定音序器区域82未被操作(步骤Se14中的否定确定),则控制部分21返回步骤Se1。
根据本实施例,如上所述,用户可以编辑搜出的乐音数据组,在该期间用户可以在收听以循环方式再现的乐音的同时编辑该乐音模式。此外,用户可以将对应于编辑的节奏模式的乐音数据组登记到自动伴奏数据库221中,并且随后再次使用这些登记的乐音数据组。注意,要显示在部件指定区域811、流派指定区域812、模板指定区域813和搜出结果显示区域814中的内容是从自动伴奏数据库221获取的。此外,还可以在上述第一和第二实施例中采用UI屏幕(包括音序器区域82的输入屏幕)。
4.修改
本发明的上述实施例可进行如下修改。在需要时可对下述修改进行组合。
4-1.修改1
虽然上述第一实施例被构建成在循环再现模式或演奏循环再现模式中将一个节奏模式记录被输出作为搜出结果,但是本发明并不限于此。例如,在按照相似度的降序重新排列了多个节奏模式记录之后,节奏模式搜索部分213可输出与用户输入节奏模式的相似度大于预定值的多个节奏模式记录作为搜出结果。在这种情况下,将被输出作为搜出结果的节奏模式记录的数量可预存为ROM中的常数,或预存为存储部分22中的变量以便可由用户来改变。例如,如果将被输出作为搜出结果的节奏模式记录的数量是五个,则这些节奏模式记录的各个节奏模式乐音数据组的五个名称以列表形式显示在显示部分24上。随后,基于用户所选的一个节奏模式记录的声音从声音输出部分26可听地输出。
4-2.修改2
在能够播放更大范围的乐音音高的乐器类型的情况中,有时候乐音数据组的各组成声音或音符的基调(乐音音高)以及包括外部声音源的伴奏的基调(乐音音高)可能彼此不一致。为了应对这种不一致,控制部分21可被构建成能够响应于用户经由操作部分25执行必要操作而改变乐音数据组的任意组成音符的基调。并且,可经由操作部分25或控件(操作器)(例如布置在节奏输入装置10上的衰减器、旋钮或者转盘)来实现这种基调改变。作为另一替换方案,表示组成音符的基调(乐音音高)的数据可预先存储在节奏DB 221和自动伴奏DB 222中,从而一旦用户改变了任一组成音符的基调,则控制部分21可将改变后的基调是什么告知给用户。
4-3.修改3
在一些乐音数据组中,波形的幅度(功率)并不是必须在组成音符的结尾附近的值“0”的周边结束,在这种情况下,在基于组成音符的声音的可听输出之后趋于产生削波噪声(clip noise)。为了避免这种不期望的削波噪声,控制部分21可具有用于自动渐强或渐弱组成音符的开始或结尾的周边中的预定部分的功能。在这种情况下,允许用户经由布置在操作部分25或节奏输入装置10上的一些操作器来选择是否应用渐强或渐弱。
图20是示出了其中向乐音数据组的各个组成音符施加了渐弱的示例的示意图。如图20所示,将渐弱应用至由标以“渐弱”的箭头所表示的乐音数据组的部分,从而每个箭头识别的部分的波形的幅度逐渐地减小,从而在相应组成音符的结束时间取大致“0”的幅度。对于每个组成音符而言,其上应用了渐弱的时间段处于几个msec至几十个msec的范围内,并且可根据用户需求来调节。用于应用渐弱的操作可执行为针对用户演奏操作的预处理或准备、实时处理或后处理。
4-4.修改4
控制部分21可记录由于用户执行演奏操作而获取的乐句,从而可以以声音源循环素材中一般采用的文件格式输出记录内容。在乐曲再现中,例如,如果用户期望的节奏模式没有存储在节奏DB 221中、但是控制部分21具有用于记录用户演奏的功能,则用户可以获取图像上与用户期望乐句乐音数据组非常接近的乐句乐音数据组。
4-5.修改5
控制部分21可设置多个乐音数据组而不是仅仅一个乐音数据组作为再现对象,从而多个乐句可输出为重叠声音。在这种情况下,例如,可在显示部分24上显示多个音轨,从而用户可以将不同的乐音数据组和再现模式分配给显示的各音轨。这样,例如,在循环再现模式下,用户可以将康加鼓的乐音数据组分配给音轨A,从而康加鼓乐音数据组在循环再现模式下被可听地再现为伴奏,并且将非洲鼓的乐音数据组分配给音轨B,从而非洲鼓乐音数据组在演奏再现模式下被可听地再现为伴奏。
4-6.修改6
作为又一种修改,可在与搜出乐音数据组中包括的与用户通过演奏操作输入的速度数据相关联的触发数据具有相同声音产生时刻的组成音符(下文中称为“组成音符A”)的击打强度极大地不同于该速度数据(例如,该情况下为超过预定阈值)的情况下执行下述替换处理。在这种情况下,控制部分21利用从击打强度基本对应于用户输入的速度数据的多个组成音符中随机选择的组成音符来替换组成音符A。在这种情况下,用户可以经由布置在操作部分25或节奏输入装置10上的一些操作器来选择是否执行该替换处理。这样,用户可以获取更加接近用户自己执行的演奏操作的输出结果。
4-7.修改7
虽然上文对于乐音数据组具有诸如WAVE或mp之类的文件格式的情况描述了除了第三实施例之外的实施例,但是本发明并不限于此,并且乐音数据组可以是例如具有MIDI格式的序列数据组。在这种情况下,在存储部分22中以MIDI格式存储文件,并且与声音输出部分26相对应的结构用作MIDI乐音发生器(声音波形生成器装置)。具体地说,如果乐音数据组在第一和第二实施例中具有MIDI格式,则类似于时间拉伸处理的处理在基调转变和音高转换时是不必要的。因此,在这种情况下,一旦用户经由基调指定键盘202指定了基调,则控制部分21将乐音数据所代表的MIDI信息中所包含的基调指示信息,改变成指定基调。并且,在这种情况下,记录在节奏模式表格中的每个节奏模式记录不需要包含与多个和弦相对应的乐音数据。一旦用户经由和弦指定键盘203指定了和弦,则控制部分21将乐音数据所代表的MIDI信息中所包含的和弦指示信息,改变成指定和弦。因此,即使在乐音数据组是MIDI格式文件的情况下,也可以实现与上述实施例相同的有利效果。并且,在第二实施例中,可以使用采用音频数据的风格数据组。在这种情况下,风格数据组在基本结构上类似于在第二实施例中使用的风格数据组,但是不同于第二实施例中使用的风格数据组之处在于各个演奏部件的演奏数据被存储为音频数据。可替换的,每个包括MIDI数据和音频数据的组合的风格数据组可被采用。在上述每个实施例中,数据格式不限于前述这些,可以任意期望的形式使用声音数据,例如单独使用或者作为包含多个声音数据的组合。
4-8.修改8
虽然在上述实施例中已经将控制部分21描述成通过经由用户演奏操作输入的触发数据输入与存储在自动伴奏DB 221中的节奏模式数据之间的比较来检测特定节奏模式记录,但是本发明并不限于此。例如,控制部分21可利用经由用户演奏操作输入的触发数据和速度数据两者来搜索自动伴奏DB 221。在这种情况下,如果存在具有相同节奏模式的两个乐音数据组,则两个乐音数据组中的其中每个组成音符的击打强度比另一个乐音数据组更接近经由用户演奏操作输入的速度数据的一个乐音数据组被检测为搜出结果。按照这种方式,同样对于击打强度,非常接近用户想象的乐音数据组的乐音数据组可被输出作为搜出结果。
4-9.节奏模式之间的差异的计算方法
上述实施例中的节奏模式之间的差异的计算方法仅仅是示例性的,可以按照与上述实施例不同的方式或利用不同方法来计算差异。
4-9-1.修改9
例如,可以在识别了输入节奏模式所落入的节奏类别并仅仅使用属于所识别的节奏类别的节奏模式记录作为计算对象之后执行步骤Sb6处的节奏模式差异计算以及步骤Sb7处的节奏模式距离计算,从而与输入节奏模式的节奏类别相匹配的乐句记录可以可靠地输出为搜出结果。由于这种修改配置可降低所需计算的数量,所以该修改不仅实现了降低信息处理装置20的负担,而且降低了对用户的响应时间。
4-9-2.修改10
小于预定基准值的每个差异被当成零。即在上述步骤Sb6中计算节奏模式之间的差异时,可执行下述操作。即,在修改10中,针对其与输入节奏模式的ON-设定时刻之间的时间差的绝对值小于阈值的要比较的节奏模式(即,将与输入节奏模式进行比较的节奏模式)的每个ON-设定时刻,控制部分21将时间差的绝对值看作是并非用户手动操作输入所期望的一个值,并且将差值校正为“0”或校正为小于初始值的值。例如,阈值是值“1”,并且被预存在存储部分22a中。假设输入节奏模式的ON-设定时刻是“1,13,23,37”并且将要比较的节奏模式的ON-设定时刻是“0,12,24,36”。在这种情况下,各个ON-设定时刻之间的差异的绝对值被计算为“1,1,1,1”。如果阈值是“1”,则控制部分21通过将每个ON-设定时刻的差异的绝对值乘以系数α来执行校正。系数α取“0”至“1”的范围内的值(在该情况下取“0”)。因此,在这种情况下,各个ON-设定时刻的差异的绝对值被校正为“0,0,0,0”,从而控制部分21将两个节奏模式间的差计算为“0”。虽然系数α可以是预定的并被预存在存储部分22中,但是其中针对每个节奏模式的系数α的值与两个节奏模式之间的差异水平相关联的校正曲线可预存在存储部分22中,以便能够根据校正曲线来确定系数α。
4-9-3.修改11
在修改11中,每个大于预定基准的差异可以不用于计算。在上述步骤Sb6中计算节奏模式之间的差异时,可执行下述操作。即,针对其与输入节奏模式的ON-设定时刻之间的时间差的绝对值大于阈值的要比较的节奏模式(即,将与输入节奏模式进行比较的节奏模式)的每个ON-设定时刻,控制部分21在计算中不使用该ON-设定时刻,或将该差异校正为小于初始值。因此,即使在用户已经仅针对一个小节的前半部分或后半部分输入了节奏模式时,也利用节奏模式输入的被用作搜索对象或目标的小节的前半部分或后半部分进行搜索。从而,即使在每个在一个小节内均具有相同节奏模式的节奏模式记录未包含在自动伴奏DB 221中时,用户在一定程度上也可以获取与输入节奏模式相似的节奏模式记录作为搜出结果。
4-9-4.修改12
可以考虑速度模式的差异。在上述步骤Sb6中计算节奏模式之间的差异时,可以采用考虑了速度模式差异的计算方案或方法。假设输入节奏模式是“节奏模式A”同时节奏模式记录中描述的节奏模式是“节奏模式B”,则按照下述操作步骤序列来计算节奏模式A与节奏模式B之间的差异。
(a-1)控制部分21利用节奏模式A的ON-设定时刻作为计算基础来计算节奏模式A中的每个ON-设定时刻与节奏模式B中最接近节奏模式A的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(a-2)控制部分21计算在上述步骤(a-1)计算出的所有时间差的绝对值之和。
(a-3)控制部分21计算节奏模式A中的每个ON-设定时刻处的速度数据与节奏模式B的相应ON-设定时刻处的击打强度之间的差异的绝对值,随后计算所有这些绝对值的和。
(a-4)控制部分21利用节奏模式B的ON-设定时刻作为计算基础,计算节奏模式B的每个ON-设定时刻与节奏模式A中最接近节奏模式B的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(a-5)控制部分21计算在上述步骤(a-4)计算出的所有时间差的绝对值之和。
(a-6)控制部分21计算节奏模式B中的每个ON-设定时刻处的速度数据与节奏模式A的相应ON-设定时刻处的击打强度之间的差异的绝对值,随后计算所有这些绝对值的和。
(a-7)控制部分21根据下述数学表达式(1)来计算节奏模式A与节奏模式B之间的差异:
节奏模式A与节奏模式B之间的差异=α×(步骤(a-2)计算出的所有时间差的绝对值之和+步骤(a-5)计算出的所有时间差的绝对值之和)/2+(1-α)×{步骤(a-3)计算出的所有速度差异的绝对值之和+步骤(a-6)计算出的所有速度差异的绝对值之和}/2
……数学表达式(1),其中×为乘号,/为除号。
在上述数学表达式(1)中,α是满足0<α<1的预定系数,并且被预存在存储部分22a中。用户可经由操作部分25来改变系数α的值。例如,在搜索节奏模式时,用户可根据是否向ON-设定时刻一致程度或速度一致程度给予优先级来设置系数α的值。这样,用户可在考虑速度的情况下获取搜出结果。
4-9-5.修改13
可以考虑持续时间模式差异。在上述步骤Sb6中计算节奏模式之间的差异时,可以采用考虑了持续时间模式差异的计算方案或方法。假设输入节奏模式是“节奏模式A”同时节奏模式记录中描述的节奏模式是“节奏模式B”,则按照下述操作步骤序列来计算节奏模式A与节奏模式B之间的差异水平。
(b-1)控制部分21利用节奏模式A的ON-设定时刻作为计算基础来计算节奏模式A中的每个ON-设定时刻与节奏模式B中最接近节奏模式A中的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(b-2)控制部分21计算在上述步骤(b-1)计算出的所有时间差的绝对值之和。
(b-3)控制部分21计算节奏模式A中的每个ON-设定时刻处的持续时间模式与节奏模式B中的相应ON-设定时刻处的持续时间模式之间的差异的绝对值,随后计算所有这些绝对值之和。
(b-4)控制部分21利用节奏模式B的ON-设定时刻作为计算基础,计算节奏模式B的每个ON-设定时刻与节奏模式A中最接近节奏模式B的ON-设定时刻的ON-设定时刻之间的时间差的绝对值。
(b-5)控制部分21计算在上述步骤(b-4)计算出的所有时间差的绝对值之和。
(b-6)控制部分21计算节奏模式B中的每个ON-设定时刻处的持续时间模式与节奏模式A的相应ON-设定时刻处的持续时间模式之间的差异的绝对值,随后计算所有这些绝对值的和。
(b-7)控制部分21根据下述数学表达式(2)来计算节奏模式A与节奏模式B之间的差异:
节奏模式A与节奏模式B之间的差异=β×(步骤(b-2)计算出的所有时间差的绝对值之和+步骤(b-5)计算出的所有时间差的绝对值之和)/2+(1-β)×(步骤(b-3)计算出的所有持续时间差的绝对值之和+步骤(b-6)计算出的所有持续时间差的绝对值之和)/2
……数学表达式(2),其中×为乘号,/为除号。
在上述数学表达式(2)中,β是满足0<β<1的预定系数,并且被预存在存储部分22a中。用户可经由操作部分25来改变系数β的值。例如,在搜索节奏模式时,用户可根据是否向ON-设定时刻一致程度或持续时间模式一致程度给予优先级来设置系数β的值。这样,用户可在考虑持续时间的情况下获取搜出结果。
前面已经解释了计算节奏模式之间的差异的方式或方法的变型。
4-10.计算节奏模式之间的距离的方法
计算节奏模式之间的距离的前述方式或方法仅仅是示例性的,可以按照与以上不同的方法来计算节奏模式之间的距离。下面描述用于计算节奏模式之间的距离的方法的变型。
4-10-1.修改14
可以向两个节奏模式的各自的和施加系数。在上述实施例的步骤Sb7中,如上所述,控制部分21通过将步骤Sb4中针对节奏类别计算的相似度距离乘以步骤Sb6中计算节奏模式之间的差,来计算节奏模式之间的距离。但是,如果相似度距离和所述差之一是值“0”,则节奏模式之间的距离可能被计算为“0”,其中未反映相似度距离和所述差中的另一个的值。因此,作为修改,控制部分21可根据下述数学表达式(3)来计算节奏模式之间的距离:
节奏模式之间的距离=(步骤Sb4中针对节奏类别计算出的相似度距离+γ)×(步骤Sb6中计算出的节奏模式之间的差+δ)……数学表达式(3),其中×为乘号,/为除号。
在数学表达式(3)中,γ和δ是预存在存储部分22中的预定常数。在此,γ和δ仅仅需要是适当小的值。这样,即使步骤Sb4中针对节奏类别计算出的相似度距离以及在步骤Sb6计算的节奏模式之间的差之一具有值“0”,也可以计算出反映节奏模式之间的相似度距离以及差中的另一个的值的节奏模式之间的距离。
4-10-2.修改15
可以使用乘以预定常数的节奏模式值的和。步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改15中,控制部分21在步骤Sb7中根据下述数学表达式(4)来计算节奏模式之间的距离:
节奏模式之间的距离=ε×步骤Sb4中针对节奏类别计算出的相似度距离+(1-ε)×步骤Sb6中计算出的节奏模式之间的差……数学表达式(4),其中×为乘号,/为除号。
在上述数学表达式(4)中,ε是满足0<ε<1的预定系数。系数ε被预存在存储部分22中,用户可经由操作部分25来改变系数ε的值。例如,在搜索节奏模式时,用户可根据是否向针对节奏类别计算的相似度距离或节奏模式之间的差异给予优先级来设置系数ε的值。这样,用户可获取更期望的搜出结果。
4-10-3.修改16
拍速接近输入节奏模式的拍速的节奏模式的距离被计算为小值。即步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改16中,控制部分21在步骤Sb7中根据下述数学表达式(5-1)来计算节奏模式之间的距离:
节奏模式之间的距离=(步骤Sb4中针对节奏类别计算出的相似度距离+步骤Sb6中计算出的节奏模式之间的差)×з×︱输入BPM-节奏模式记录的BPM︱……数学表达式(5-1),其中×为乘号,/为除号。
在上述数学表达式(5-1)中,з是满足0<з<1的预定系数。系数з被预存在存储部分22中,用户可经由操作部分25来改变系数з的值。例如,在搜索节奏模式时,用户可根据向BPM中的差异给予多大的优先级来设置系数з的值。这时,控制部分21可从搜出结果中排除其BPM与输入BPM的差异大于预定阈值的每个节奏模式记录。这样,用户可在考虑BPM的情况下获取更满意的搜出结果。
并且,作为上述数学表达式(5-1)的另一示例,可以采用下述数学表达式:
节奏模式之间的距离=(步骤Sb4中针对节奏类别计算出的相似度距离+步骤Sb6中计算出的节奏模式之间的差)+з×︱输入BPM-节奏模式记录的BPM ︱……数学表达式(5-2)
与上述数学表达式(5-1)类似,上述数学表达式(5-2)中的з是满足0<з<1的预定常系数。系数з被预存在存储部分22中,用户可经由操作部分25来改变系数з的值。在使用数学表达式(5-2)的情况下,例如如果常数з被设置成相当小的值,则以以下方式输出搜出结果:使得基本上更接近输入节奏模式的节奏模式早于不那么接近输入节奏模式的节奏模式输出作为更高排序的节奏模式,并且还按照与输入节奏模式的拍速的接近程度的降序来显示与输入节奏模式一致的节奏模式。
4-10-4.修改17
可以以使得音色接近输入节奏模式的音色的节奏模式的距离被计算为小值的方式进行校正。步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改17中,控制部分21将可应用至步骤Sb7的前述表达式的任意一个的右侧乘以输入节奏模式时指定的音色和将与输入节奏模式比较的节奏模式的音色之间的一致程度。注意,可以按照任意已知方式来计算所述一致程度。在此假设较小的一致程度值表示两个节奏模式在乐音音高方面彼此更接近、而较大的一致程度值表示两个节奏模式在乐音音高方面彼此不那么接近。这样,用户可以容易地获取音色靠近用户在输入节奏模式时感觉到的音色的节奏模式记录,作为搜出结果,因此,用户对搜出结果具有更满意的感觉。
作为考虑了音色的搜索的示例具体方案,可以考虑下述方案。首先,预先在风格表格中与各演奏部件的音色ID相关地描述在各个演奏部件中使用的音色数据(具体地,音色的各个程序编码和MSB(最高有效位)和LSB(最低有效位))。用户在指定了音色数据之后经由操作部分25输入节奏模式。随后,控制部分21执行控制以使对应于与指定音色数据一致的音色数据的风格数据组被容易地输出作为搜出结果。可替换地,其中针对逐个音色ID并关于音色ID描述了各个乐音数据的相似度的数据表格被预存在存储部分22中,并且控制部分21可执行控制以使得可以以较高的优先级搜出与指定音色数据具有高相似度的音色数据的音色ID的风格数据组。
4-10-5.修改18
可以以使得流派更接近输入节奏模式的流派的节奏模式的距离被计算为小值的方式进行校正。步骤Sb7中的节奏模式之间的距离的计算可以采用上述方式之外的下述方式执行。即,在修改18中,用户可在输入节奏模式时通过操作部分25来指定流派。在修改18中,控制部分21将可应用至步骤Sb7的前述表达式的任意一个的右侧乘以节奏模式输入时指定的流派和将与输入节奏模式比较的节奏模式的流派之间的一致程度。在此,流派可阶梯式或层次化地归类为主流、中流和次流。控制部分21可以以下方式计算流派一致程度:使得与指定流派一致的节奏模式记录或包括指定流派的节奏模式记录与输入节奏模式之间的距离变小,或者使得与指定流派不一致的节奏模式记录或不包括指定流派的节奏模式记录与输入节奏模式之间的距离变大;随后,控制部分21可对将在步骤Sb7中使用的数学表达式进行校正。这样,用户可以更容易地获取与用户在输入节奏模式时指定的流派一致的节奏模式记录或包括指定流派的节奏模式记录,作为输出结果。
前面已经对计算节奏模式之间的距离的方式或方法的变型进行了说明。
4-11.计算输入节奏模式与节奏类别之间的距离的方式
前述计算输入节奏模式与节奏模式之间的距离的方法仅仅是示例性的,可以按照任意其他不同的方式或任意其他不同的方法来计算该距离,如下所述。
4-11-1.修改19
可以根据类别特有或唯一的输入间隔的数量来计算输入节奏模式与节奏类别之间的距离。在修改19中,控制部分21根据将与输入节奏模式比较的节奏模式的或者对于该节奏模式唯一的包含在输入节奏模式中的ON-设定时刻间隔符号的数量来计算输入节奏模式与每个节奏类别之间的距离。图21是示出了预存在存储部分22中ON-设定时刻间隔表格的示例的示图。ON-设定时刻间隔表格包括表示节奏类别的归类的名称以及各个节奏类别的目标ON-设定时刻间隔的组合。注意,利用以划分成48个相等的时间片段的一个小节归一化的ON-设定时刻间隔预先确定ON-设定时刻间隔表格的内容。
为了便于说明,在此假设控制部分21已经由输入节奏模式的ON-设定时刻计算了ON-设定时刻间隔,随后作为对所计算出的ON-设定时刻间隔执行量化处理而计算出以下述(d)表示的一组值。
(d)12,6,6,6,6,6
根据所计算出的一组值以及图21所示的ON-设定时刻间隔,控制部分21识别出在输入节奏模式中存在一个四分(-音符)ON-设定时刻间隔以及五个八分(-音符)ON-设定时刻间隔。随后,控制部分21如下地计算输入节奏模式与每个节奏类别之间的距离:
输入节奏模式与节奏类别N之间的距离=1-(输入节奏模式中的节奏类别N的相关ON-设定时刻间隔的数量/输入节奏模式中的ON-设定时刻间隔的总数)……数学表达式(6)
注意,上述数学表达式仅仅是示例性的,可以采用任意其它数学表达式,只要其能使节奏类别与输入节奏模式的距离被计算为随着节奏类别包含更多的目标ON-设定时刻间隔而更小的值即可。并且,利用上述数学表达式(6),控制部分21例如将输入节奏模式与八分(-音符)节奏模式之间的距离计算成“0.166”,或者将输入节奏模式与四分(-音符)节奏模式之间的距离计算成“0.833”。按照前述方式,控制部分21计算输入节奏模式与每个节奏类别之间的距离,并且确定输入节奏模式属于所计算出的距离在各节奏类别当中最小的特定节奏类别。
4-11-2.修改20
可以根据DB存储的(数据库存储的)节奏类别与输入节奏类别之间的矩阵来计算输入节奏模式与节奏类别之间的距离。用于计算输入节奏模式与节奏类别之间的距离的方法并不限于上述方法,可以修改如下。即,在修改20中,在存储部分22中预存距离基准表格。图22是示出了距离基准表格的示例的示图,其中输入节奏模式所属的节奏类别与存储在自动伴奏数据库221中的各个节奏模式记录所属的类别之间的距离由矩阵结构表示。为了便于说明,在此假设控制部分21已经确定输入节奏模式所属的节奏类别是八分(即八分音符)节奏类别。在这种情况下,控制部分21根据已经确定的输入节奏模式所属的节奏类别以及距离基准表格来识别输入节奏模式与各个节奏类别之间的距离。例如,在这种情况下,控制部分21将输入节奏模式与四分(四分音符)节奏类别之间的距离识别为“0.8”,将输入节奏模式与八分(八分音符)节奏类别之间的距离识别为“0”。因此,控制部分21确定出八分节奏类别与输入节奏模式之间的距离最小。
4-11-3.修改21
可以根据对于类别唯一的输入时刻以及分数来计算输入节奏模式与节奏模式之间的距离。用于计算输入节奏模式与节奏类别之间的距离的方法并不限于上述方法,可以修改如下。即,在修改21中,控制部分21根据输入节奏模式中的将与输入节奏模式比较的节奏类别的符号或对于将与输入节奏模式比较的节奏类别唯一的ON-设定时刻的数量来计算输入节奏模式与每个节奏类别之间的距离。图23是示出了预存在存储部分22a中的ON-设定时刻表格的示例的示图。ON-设定时刻表格包括表示节奏类别的分类的名称、各个节奏类别中的目标ON-设定时刻、以及其中输入节奏包括目标ON-设定时刻的情况下将被添加的分数的组合。注意,利用以划分成48个相等的时间片段的一个小节归一化的方式预先确定ON-设定时刻间隔表格的内容。
为了便于说明,在此假设控制部分21已经获得了下述(e)所示的ON-设定时刻。
(e)0,12,18,24,30,36,42
在这种情况下,控制部分21计算输入节奏模式相对于每个节奏类别的分数。在此,控制部分21将“8”计算为输入节奏模式相对于四分节奏类别的分数,将“10”计算为输入节奏模式相对于八分(音符)节奏类别的分数,将“4”计算为输入节奏模式相对于八分三连音节奏类别的分数,将“7”计算为输入节奏模式相对于十六分节奏类别的分数。随后,控制部分21将所计算出的分数最大的节奏类别确定为与输入节奏模式具有最小距离的节奏类别。在这种情况下,控制部分21确定输入节奏模式与八分节奏类别具有最小距离。
上文已经描述了用于计算输入节奏模式与每个节奏类别之间的距离的方法的变型。
4-12.修改22
可以基于在用户指定了演奏部件之后输入的乐音音高模式来执行搜索。在下面修改22的描述中,图5A所示的节奏模式表格中的项目名称“节奏模式ID”被称为“模式ID”。并且,在修改22中,项目“乐音音高模式数据”被添加至图5A的节奏模式表格中的每个节奏模式记录。乐音音高模式数据是其中记录了随着构成小节的乐句中的各个组成音符的音高的时间序列而存在的变调的文本数据的数据文件。例如,乐音音高模式数据是其中记录了随着构成小节的乐句中的各个组成音符的音高的时间序列而存在的变调的文本数据文件。此外,如上所述,除了触发数据外,ON-设置信息包括键盘的音符编号。触发数据中的ON-设定时刻的序列对应于输入节奏模式,并且键盘的音符编号的序列对应于输入乐音音高模式。此处,信息处理装置20可利用任意一个公知方法来搜索乐音音高模式。例如,当用户已经在将“和弦”指定为演奏部件之后输入“C-D-E”的乐音音高序列时,信息处理装置20的控制部分21将具有代表了相对数值“0-2-4”所表示的序列的乐音音高进程的乐音音高模式数据的节奏模式记录输出作为搜出结果。
并且,例如,当用户将“乐句”指定为演奏部件并输入“D-D-E-G”的乐音音高模式时,控制部分21产生表示输入乐音音高模式的MIDI信息。控制部分21将节奏模式表格中包含的乐音音高模式记录中的具有与MIDI信息相同或类似的乐音音高模式数据的乐音音高模式记录输出作为搜出结果。用户可经由信息处理装置20的操作部分25在利用乐音音高模式的这种搜索和利用节奏模式的搜索之间进行切换。
4-13.修改23
在基于用户指定演奏部件输入的节奏模式而执行的搜索的结果中,乐音音高模式中与输入节奏模式更类似的节奏模式可输出作为搜出结果。在修改23中,节奏模式表格中的每个节奏模式记录不仅仅包括各个演奏部件的“模式ID”,还包括“乐音音高模式数据”。
图24A和24B是利用乐音音高模式的搜索的示意说明图,其中,水平轴代表经过的时间,垂直轴代表各种乐音音高。在修改23中,下述处理被添加至图8的上述搜索处理流程。为了便于说明,在此假设用户已经操作贝司输入范围键盘11来输入四分(-音符)节奏中的乐音音高模式“C-E-G-E”。例如由一系列音符编号“60,64,67,64”来代表输入的乐音音高模式。图24A代表了这种乐音音高模式。由于此处的演奏部件是“贝司”,所以控制部分21将部件ID是“01(贝司)”的乐音音高模式记录识别为比较对象,并且计算出被识别为比较对象的这些乐音音高模式记录中的每一个中所包含的乐音音高模式数据与输入的乐音音高模式的差异。
控制部分21计算输入乐音音高模式与部件ID是“01(贝司)”的乐音音高模式记录中的每一个中所包含的乐音音高模式数据所代表的乐音音高模式之间的乐音音高间隔方差;后一乐音音高模式在下文中将被称为“声源乐音音高模式”。这基于这样的想法:在乐音音高间隔差异中方差越小,则可以认为两个旋律模式更相似。在此假设输入乐音音高模式如上所述由“60,64,67,64”代表,并且给出的声源乐音音高模式由“57,60,64,60”代表。在图24B中,输入乐音音高模式和声源乐音音高模式被一起示出。在这种情况下,可根据数学表达式(8)通过计算按照下面数学表达式(7)算出的乐音音高间隔的平均值来计算输入乐音音高模式和声源乐音音高模式之间的乐音音高间隔方差。
((︱60-57︱)+(︱64-60︱)+(︱67-64︱)+(︱64-60︱))/4=3.5
……数学表达式(7)
((︱3.5-3︱)2+(︱3.5-4︱)2+(︱3.5-3︱)2+(︱3.5-4︱)2)/4=0.25
……数学表达式(8)
如上述数学表达式所示,由“60,64,67,64”代表的输入乐音音高模式与由“57,60,64,60”代表的声源乐音音高模式之间的乐音音高差异的方差被计算为0.25。控制部分21针对所有声源乐音音高模式计算这种乐音音高间隔方差。
接下来,在步骤Sb7,控制部分21在考虑了输入节奏模式与每个搜出节奏模式各自的乐音音高模式的情况下获取它们之间的相似度。如果在不考虑输入节奏模式与每个搜出节奏模式各自的乐音音高模式的情况下将它们之间的相似度定义为“S”,并且乐音音高差异的方差被定义为“V”,则在考虑了输入节奏模式与每个搜出节奏模式各自的乐音音高模式的情况下的它们之间的相似度Sp可以利用变量x和常数y(其中0<x<1且y>1)以下述数学表达式(9)表示:
Sp=(1-x)S+xyV    ……数学表达式(9)
如果变量x为“0”,则上述数学表达式变成“Sp=S”,所算出的相似度将不会反映乐音音高模式。随着变量x趋近于值“1”,通过上述数学表达式得到的相似度将反映更多的乐音音高模式。用户可通过操作部分25来改变变量x的值。并且,在上述数学表达式(9)中,乐音音高差异的平均误差可用来代替乐音音高差异的方差。这样,控制部分21以在考虑了乐音音高模式的情况下计算出来的搜出节奏模式与输入节奏模式之间的相似度的降序(即,距离的升序),重新排布搜出的节奏模式;随后将重新排布的搜出节奏模式存入RAM。
并且,输入乐音音高模式的ON-设定时刻和ON-设定的数量以及组成声源乐音音高模式的各个音符的ON-设定时刻和ON-设定的数量没有必要彼此一致。在这种情况下,控制部分21根据下述操作步骤序列,针对输入乐音音高模式的每个ON-设定来确定声源乐音音高模式的哪一个音符对应于输入乐音音高模式的该ON-设定。
(C-1)控制部分21利用输入乐音音高模式的各个音符的ON-设定时刻作为计算基础,计算输入乐音音高模式的每个音符的ON-设定与声源乐音音高模式的最接近输入乐音音高模式的该音符的ON-设定的ON-设定时刻的一个音符之间的乐音音高差异。
(C-2)控制部分21利用声源乐音音高模式的各个音符的ON-设定时刻作为计算基础,计算声源乐音音高模式的每个音符与输入乐音音高模式的最接近声源乐音音高模式的该音符的ON-设定的ON-设定时刻的该音符之间的乐音音高差异。
(C-3)随后,控制部分21计算步骤(C-1)中计算出的差异与步骤(C-2)中计算出的差异之间的平均值,作为输入乐音音高模式和声源乐音音高模式之间的乐音音高差异。
注意,为了降低必要计算的数量,可仅仅利用上述步骤(C-1)和(C-2)中的任意一个来计算输入乐音音高模式和声源乐音音高模式之间的乐音音高差异。还要注意,用于在考虑了输入节奏模式与每个搜出节奏模式的乐音音高模式的情况下计算它们之间的相似度的方法并不限于上述方法,可以为了该目的而采用其它任何适合的方法。
并且,如果将相应乐音音高之间的差异的绝对值除以“12”,则不仅可以搜出与输入乐音音高模式本身相似的伴奏,而且可以搜出在12-乐音的乐音音高模式下与输入乐音音高模式相似的伴奏。下文描述了其中乐音音高由音符编号表示、并且在“36,43,36”的乐音音高模式A和“36,31,36”的乐音音高模式B之间进行比较的情况。虽然两个乐音音高模式彼此不同,但是这两个模式代表了音符编码“G”在两个模式之间仅相差一个八度音程的相同组成音符“C,G,C”。因此,乐音音高模式A和乐音音高模式B可被看成是相似的乐音音高模式。控制部分21根据下面的数学表达式(10)和(11)来在乐音音高模式A和乐音音高模式B之间计算12-乐音的乐音音高模式中的差异。
(︱36-36︱/12)+(︱43-31︱/12)+(︱36-36︱/12)=0
……数学表达式(10)
(︱0-0︱∧2)+(︱0-0︱∧2)+(︱0-0︱∧2)=0
……数学表达式(11)
由于乐音音高模式A和B在12-乐音的乐音音高变调模式下彼此一致,所以乐音音高模式A和B之间在12-乐音的乐音音高模式下的相似度被计算为“0”。即,在这种情况下,乐音音高模式B被输出为与乐音音高模式A最相似的乐音音高模式。如果不仅与输入乐音音高模式本身的相似度而且12-乐音的乐音音高变调模式均如上地加以考虑,则用户甚至可以具有更满意的感觉。
此外,可根据考虑了的输入节奏模式本身以及12-乐音的乐音音高变调模式两者而确定的相似度值来输出搜出结果。该情况下使用的数学表达式被表示为如下述数学表达式(12):
输入乐音音高模式本身以及12-乐音的乐音音高变调模式两者都被考虑时的节奏模式中的相似度=(1-X)×(节奏模式中的相似度)+XY{(1-κ)(乐音音高模式中的相似度)+κ(12-乐音的乐音音高变调模式中的相似度)}    ……数学表达式(12)
其中,X、Y和κ是满足0<X<1、Y>1且κ<0的预定常数。注意,上述数学表达式仅仅是示例性的,而不必如此限制地进行理解。
在上述方式中,不仅接近用户期望的节奏模式而且接近用户期望的乐音音高模式的节奏模式记录可输出作为搜出结果。因此,用户可获取不仅在节奏模式上与输入节奏模式相同而且在乐音音高模式上与输入节奏模式不同的节奏模式记录,作为输出结果。
4-14.修改24
控制部分21可利用响应于用户的演奏操作而产生的触发数据以及速度数据两者来在自动伴奏DB 221中进行搜索。在这种情况下,如果存在两个具有极其相似的节奏模式的节奏模式数据,则控制部分21将击打强度模式数据中描述的各个组成音符的击打强度更接近响应于用户的演奏操作而产生的速度数据的节奏模式数据输出作为搜出结果。按照这种方式,同样对于击打强度,接近用户图像的自动伴奏数据组可被输出为搜出结果。
4-15.修改25
此外,在自动伴奏DB 221中搜索时,除了触发数据和速度数据之外,控制部分21还可以使用表示可听地产生同一声音继续或持续的时间长度的持续时间数据。每个组成音符的持续时间数据由通过从OFF-设定时刻中减去刚好在该组成音符的OFF-设定时刻之前的ON-设定时刻而计算出的时间长度来表示。具体地说,在其中节奏输入装置10的输入构件是键盘的情况下,可以非常有效地使用持续时间数据,这是因为持续时间数据允许信息处理装置20清楚地获取组成音符的OFF-设定时刻。在这种情况下,项目“持续时间模式数据”被添加至乐句表格以及节奏模式表格。持续时间模式数据值诸如文本文件之类的其中记录了构成一个小节的乐句的各个组成音符的持续时间(可听产生时间长度)的数据文件。在这种情况下,信息处理装置20可被构建成利用用户输入的一个小节的持续时间模式来搜索乐句表格或节奏模式表格,并从乐句表格或节奏模式表格中输出持续时间模式数据最类似于(或最接近)用户输入的持续时间模式的乐句记录或节奏模式记录,作为搜出结果。因此,即使存在具有相似节奏模式的多个乐句模式记录或节奏模式记录,信息处理装置20也可以从各相似节奏模式中识别并输出具有连奏、断奏(跳跃感)等的特定节奏模式。
4-16.修改26
信息处理装置20可搜索包括与输入节奏模式的音色相同或高相似度的音色的乐句的自动伴奏数据组。例如,为了该目的,识别将采用的音色的识别信息可预先与各个节奏模式数据关联;在这种情况下,当用户将要输入节奏模式时,用户指定音色以使得节奏模式可以缩窄至将以相应音色可听地产生的节奏模式,随后可从缩窄的节奏模式中搜出具有高相似度的特定节奏模式。在这种情况下,项目“音色ID”被加入节奏模式表格。在经由任意演奏操作器来输入节奏模式时,用户指定音色,例如经由操作部分25指定音色;可经由节奏输入装置10中布置的任意操作器来执行音色的指定。一旦用户执行演奏操作,就在执行演奏操作时将用户所指定音色的ID输入至信息处理装置20作为MIDI信息的一部分。随后,信息处理装置20比较基于输入音色ID的声音的音色和基于包含在节奏模式表格中的指定演奏部件的每个节奏模式记录中的音色ID的音色,并且如果已经根据比较结果确定了进行比较的音色为预定对应关系,则信息处理装置20识别出该节奏模式记录与输入节奏模式相似。所述对应关系是预定的,以使得所比较的两个音色可根据比较结果而被识别成具有相同乐器类型,并且所述预定对应关系被预存在存储部分22a中。可以按照任意已知方式来进行前述音色比较,例如通过比较各个声音波形的频谱。在前述方式中,就指定演奏部件来说,用户可获取不仅与输入节奏模式在节奏模式上相似、而且与输入节奏模式在音色上也相似的自动伴奏数据。针对这种搜索的示例具体方法总体上与参考修改17描述的方法相同。
4-17.修改27
虽然上述实施例被描述成在输入时刻间隔柱状图和声音产生时刻间隔柱状图之间的差异的绝对值是最小时确定出声音产生时刻间隔柱状图具有与输入时刻间隔柱状图的高相似度,但是用于确定两个柱状图之间的高相似度值的条件并不限于两个柱状图之间的差异的绝对值,并且可以是任意合适的条件,例如两个柱状图之间的关联程度(例如两个柱状图的各自的时间间隔分量的乘积)最大或者大于预定阈值的条件,或者两个柱状图之间的差异的平方最小或者小于预定阈值的条件,只要条件定义了各个时刻间隔分量在两个柱状图之间具有相似值即可。
4-18.修改28
虽然已经参考信息处理装置20搜索具有与经由节奏数据装置10输入的节奏模式相似的节奏模式的乐音数据组、并且将搜出的乐音数据组转换成用于可听输出的声音的情况描述了上述实施例,但是还可以采用下述修改的配置。例如,在上述实施例所执行的处理由Web服务执行的情况下,信息处理装置20在上述实施例中处理的功能由提供Web服务的服务器设备来处理,并且诸如PC之类的作为客户设备的用户终端响应于用户的操作将输入的节奏模式经由因特网、专用线路等传递给服务器设备。基于从客户设备接收到的输入节奏模式,服务器设备在存储部分中搜索具有与输入节奏模式相似的节奏模式的乐音数据组,随后将搜出结果或搜出的乐音数据组发送至用户终端。随后,终端基于从服务器设备接收的乐音数据组可听地输出声音。注意,在这种情况下,可将小节线时钟信号呈现给Web网站或服务器设备提供的应用程序的用户。
4-19.修改29
节奏输入装置10中的演奏操作器可以是并非鼓操作板类型或键盘类型的类型,例如弦乐器类型、管乐器类型或按钮类型,只要其响应于用户的演奏操作而至少输出触发数据即可。可替换的,演奏操作器可以是平板电脑、智能手机、具有触摸板的便携或移动电话等。作为另一种替换,节奏输入装置10不限于乐器的操作器,还可以构造为用作包括提供在车辆的挡泥板或方向盘台上的碰撞传感器并且能够响应于被撞击而输出触发数据(和速度数据)的操作器。作为另一种替换,节奏输入装置10可以是提供在OA(办公自动化设备)或家用电器中的操作器,如个人计算机的键盘、鼠标或触摸板。在这种情况下,响应于操作器的操作输出的信号可以输入信息处理装置20,从而基于从信息处理装置20输出的乐音信号通过设备中提供的扬声器可听地输出声音。
现在考虑其中演奏控件或操作器是触摸板的情况。在一些情况下,在触摸板的屏幕上显示多个图标。如果乐器的图像以及乐器的操作器(例如键盘)被显示在图标中,则用户可以知道应该触摸哪一个图标以可听地产生基于特定乐器或特定乐器操作器的乐音。在这种情况下,显示图标的触摸板区域对应于上述实施例中提供的各个演奏操作器。
4-20.修改30
由于在上述实施例中每个节奏模式记录都包括表示原始BPM的信息,所以控制部分21可被布置成响应于用户经由操作部分25执行的操作来利用原始BPM再现节奏模式记录中包含的乐音数据组所代表的乐音。并且,一旦用户从搜出结果选择了特定节奏模式记录、并且控制部分21识别出这样选择的节奏模式记录,则控制部分21可执行控制以使得以用户输入的或用户指定的BPM,在紧跟随着所选节奏模式记录的被识别出之后的阶段以基于用户指定的BPM的速率,再现由节奏模式记录中包含的乐音数据组所代表的乐音,随后BPM随着时间的过去而逐渐接近节奏模式记录的原始BPM。
4-21.修改31
用于使用户对搜出结果具有满意感觉的方法应当理解为并不限于上述过滤功能。
——对与BPM差异的相似度的加权——
例如,可向用于计算输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离的数学表达式施加基于输入BPM与节奏模式表格中包含的节奏模式记录的原始BPM之间的差异的加权。假设“a”代表预定常数,“L”代表输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离,则用于利用施加的加权计算相似度的数学表达式可表达如下:
相似度=L+输入BPM-节奏模式记录的BPM/a
……数学表达式(13)
但是,注意,用于计算这种相似度的数学表达式并不限于上述数学表达式(13),可以采用任意其它数学表达式,只要相似度随着输入BPM和节奏模式记录的BPM彼此更接近而下降(即,相似度增大)即可。
4-22.修改32
虽然如上述实施例那样可采用过滤以便通过用户经由下拉列表指定显示的特定对象来缩窄显示结果,但是可替换的,可通过对在节奏模式输入时获取的演奏信息的自动分析来自动缩窄显示结果。并且,可根据表示经由键盘等输入的节奏的音高的音高演奏信息来识别和弦类型或音阶,从而以识别的和弦类型或音阶登记的伴奏可自动地显示为搜出结果。例如,如果已经利用类似摇滚的和弦输入了节奏,则可以容易地搜出摇滚类型。并且,如果已经以类似中东(Middle-East-like)的音阶输入了节奏,则可以容易地搜出类似中东的节奏模式。可替换的,可以基于表示经由键盘输入时指定的音色的音色信息来执行搜索,以使得能够搜出具有与输入音色信息相同的音色信息、以及具有与输入节奏相同的节奏模式的伴奏。例如,如果已经利用对小鼓进行鼓边敲击而输入了节奏,则可以从与输入节奏具有相同节奏模式的候选中优先显示鼓边敲击音色的伴奏。
4-23.修改33
如果节奏输入装置10不包括输入操作板12,则节奏输入装置10可如下配置。在此,作为缺省,贝司输入范围键盘11a、和弦范围键盘11b以及节奏模式输入范围键盘11c被分配给键盘11的各个预定键范围。一旦用户指示用户将要输入针对鼓部件的节奏模式,则控制部分21将鼓部件分配给键盘11的预定键范围;例如,控制部分21将低音鼓部件分配给“C3”,将小鼓部件分配给“D3”,将踩镲部件分配给“E3”,以及钹部件分配给“F3”。注意,在这种情况下,控制部分21可将不同的乐器乐音分配给位于键盘11的整个键范围中的各个操作器(即各个键)。并且,控制部分21可在键盘11的各个操作器(键)上方和/或下方显示所分配的乐器的图像(例如,小鼓等的图像)。
4-24.修改34
可进行如下修改以允许用户容易地可视识别应该操作哪个操作器来执行对特定演奏部件的搜索。例如,控制部分21在预定的每个操作器(键)的上方或下方显示所分配的演奏部件的图像(例如对于和弦演奏而按下的吉他的图像、正演奏单乐音的钢琴的图像(例如被手指按下的单个键的图像)、或者小鼓的图像)。上述图像可显示在显示部分24上,而不是预定操作器(键)的上方或下方。在这种情况下,不仅在显示部分24上显示例如模拟键盘11的键盘图像,而且还在显示部分24上显示在与实际键盘11上的状态相同的分配状态下分配给键盘图像的各个键范围的演奏部件的图像。可如下地进行替换布置,以允许用户容易地可听识别应该操作哪个操作器来使控制部分21执行对特定演奏部件的搜索。例如,一旦用户对贝斯输入范围键盘11a进行输入,控制部分21就使声音输出部分26输出贝司声音。在前述方式中,用户可以可视地或者可听地识别出应该操作哪个操作器来使控制部分21执行对特定演奏部件的搜索,因此有助于用户的输入操作;从而,用户可以更容易地获取任意期望的伴奏声音源。
4-25.修改35
虽然上文已经参考了其中在针对每个节奏类别计算了ON-设定时刻间隔的分布(步骤Sb1)之后计算输入节奏模式中的ON-设定时刻间隔的分布(步骤Sb3)的情况描述了图8的处理流程,步骤Sb1和Sb3的处理顺序可进行反转。并且,不管步骤Sb1和Sb3的处理顺序是否反转,控制部分21在计算之后都可将针对每个节奏类别计算的ON-设定时刻间隔的分布存储在存储部分22中。这样,控制部分21没有必要重新计算曾经计算的结果,这就可以实现提高的处理速度。
4-26.修改36
当用户在预定时间段内通过操作多个操作器来输入节奏模式时,例如当用户按下贝司输入范围键盘11a以输入和弦时,可造成下述问题。在此假设用户已经在一个小节内的“0.25”时间点输入了节奏。在这种情况下,即使用户试图在同一时间点操作多个操作器,但用户实际上仅仅可以在“0.25”的ON-设定时刻操作一些操作器,而在“0.26”的ON-设定时刻操作其它操作器,其中控制部分21可刚好在这些ON-设定时刻存储输入的节奏模式。结果,可能不期望地输出不同于用户期望的搜出结果;因此,不能向用户提供良好操作性。为了解决该问题可以采用下述配置。在修改36中,控制部分21根据从节奏输入装置10输入的ON-设定信息以及自动伴奏DB 211中包含的部件表格,确定是否在同一时间点针对同一演奏部件对多个操作器执行了用户操作。例如,如果贝司输入范围键盘11a中包含的一个操作器的ON-设定时刻与贝司输入范围键盘11a中包含的另一个操作器的ON-设定时刻之间的差异落入预定时间段内,则控制部分21确定已经在同一时间点操作了这些操作器。在此,例如预定时间段是50msec(毫秒)。随后,控制部分21与具有上述ON-设定时刻的触发数据相关联地向控制部分21输出确定结果,即,表示多个操作器可被看作在同一时间点被操作的信息。随后,控制部分21在从输入节奏模式中排除了具有表示比其它触发数据的ON-设定时刻晚的声音产生开始时刻的ON-设定时刻的一个触发数据(其与表示多个操作器被看成是已经在同一时间点被操作的信息相关联)之后,利用输入节奏模式来执行节奏模式搜索。即,在这种情况下,在预定时间段内的基于用户操作的ON-设定时刻中,表示较早的声音产生开始时刻的ON-设定时刻将被用于节奏模式搜索。但是,可替换的,在预定时间段内的基于用户操作的ON-设定时刻中,表示较晚的声音产生开始时刻的ON-设定时刻将被用于节奏模式搜索。即,控制部分21可利用基于预定时间段内的用户操作的ON-设定时刻的任意一个来执行节奏模式搜索。作为另一替换方案,控制部分21可计算基于预定时间段内的用户操作的ON-设定时刻的平均值,随后利用由此计算出来的平均值作为该预定时间段内的用户操作的ON-设定时刻来执行节奏模式搜索。按照前述方式,即使用户已经在预定时间段内利用多个操作器输入了节奏,也可以输出接近用户意图的搜出结果。
4-27.修改37
如果控制部分21以每小节为单位将用于存储输入节奏模式的定时设置为与基于小节线时钟的小节切换定时一致,就会产生下列问题。例如,当通过用户操作输入节奏模式时,用户期望的节奏模式与实际的ON-set时刻之间会由于用户所感觉的时刻间隔与小节线时钟信号之间的差异可能出现几个msec至几十个msec范围内的误差。因此,即使用户认为正在小节的开头输入节拍,但是由于上述误差,该节拍可能被错误地当成是前一小节的节奏输入。在这种情况下,可能不期望地输出不同于用户意图的搜出结果;因此,不能向用户提供良好操作性。为了解决这一问题,控制部分21仅需要在将输入节奏模式存入RAM中时,将从比当前小节的开头早几十毫秒的时间点(即,前一小节的最后几十个毫秒)至从比当前小节的结尾早几十毫秒的时间点的范围,设置为处理范围。即,控制部分21将将被存入RAM的输入节奏模式的目标范围前移几十毫秒。这样,该修改可防止输出与用户意图不同的搜出结果。
4-28.修改38
如果控制部分21将用于执行节奏模式搜索的定时设置为与基于小节线时钟的小节切换定时设置成一致,则可能出现下面的问题。例如,本发明的搜索方法还可应用至配置有回放功能的乐音数据处理设备,回放功能允许搜出乐音数据组在紧跟在节奏输入之后的小节中与小节线时钟同步地回放或再现。在这种情况下,为了从紧跟在节奏输入之后的小节的开头再现搜出乐音数据组(搜出结果),必须在小节开始的时间点之前(即,在已经进行节奏输入的同一小节内)输出搜出结果。并且,在其中将被再现的乐音数据组由于RAM等的存储容量问题等不能被读取及被预先存入RAM的情况下,需要在已经进行节奏输入的同一小节内读出搜出乐音数据组并将读出的乐音数据组存入RAM。为了解决这一问题,控制部分21仅仅需要将用于执行节奏模式搜索的定时转变成比小节切换定时早几十毫秒。这样,在小节切换实施之前执行搜索并将搜出的乐音数据组存入RAM,从而可以在紧跟在节奏输入之后的小节的开头再现搜出的乐音数据组。
4-29.修改39
可进行下述配置来实现多个小节(下文中称为“N个”小节)的节奏模式的搜索,而不是一个小节的节奏模式的搜索。为了便于描述,下文将参考上述第二实施例和第三实施例来描述下述配置。例如,在这种情况下,可采用其中控制部分21利用具有N个小节的组的输入节奏模式来搜索节奏模式表格的方法。但是,利用该方法,在根据小节线时钟信号输入节奏模式时,用户必须指定第一小节位于哪。并且,由于搜出结果在N个小节之后输出,所以在输出搜出结果之前要花费很长时间。为了消除这种不便,可以进行下述配置。
图25是用于搜索多个小节的节奏模式的处理的示意说明图。在修改39中,自动伴奏DB 221的节奏模式表格包含各自具有N个小节的节奏模式数据的多个节奏模式记录。用户经由操作部分25指定将被搜索的节奏模式中的小节数量。这种用户指定的内容显示在显示部分24上。在此假设用户已经指定了“两个”作为小节数量。一旦用户通过任意操作器输入了节奏,控制部分21首先存储第一小节的输入节奏模式,随后根据第一小节的输入节奏模式来搜索节奏模式。根据下述操作序列执行搜索。首先,关于各自具有两个小节的节奏模式数据的多个节奏模式记录,控制部分21计算第一小节的输入节奏模式与每个节奏模式数据的第一小节和第二小节的节奏模式之间的距离。随后,对于每个节奏模式数据,控制部分21将所计算出的第一小节的输入节奏模式与第一小节的节奏模式之间的距离、以及所计算出的第一小节的输入节奏模式与第二小节的节奏模式之间的距离之中较小的一个存入RAM。随后,控制部分21针对第二小节的输入节奏模式执行类似操作。此后,控制部分21针对每个节奏模式数据将由此存入RAM的距离进行求和,随后将该和(相加的结果)设置为表示节奏模式数据与输入节奏模式之间的距离的分数。随后,控制部分21按照上述分数的升序重新排布上述分数小于预定阈值的各个节奏模式数据,随后将该节奏模式数据输出为搜出结果。在前述方式中,可以搜索各自具有多个小节的多个节奏模式数据。由于针对每个小节计算了输入节奏模式与节奏模式数据之间的距离,所以不需要用户指定第一小节在哪,并且在输出结果之前不需要很长时间。
4-30.修改40
控制部分21可按照下述方式而不是前述方法将输入节奏模式存入RAM。下述数学表达式(14)用于获取输入节奏模式中的第n个输入ON-设定时刻。在下面的数学表达式(14)中,“L”代表一个小节的结尾,该小节的开头设置为值“0”,并且“L”是等于或大于“0”的实数。并且在下面的数学表达式(14)中,“N”表示具体地为一个小节内的时钟信号数量的形式的分辨率。
|(第n个ON-设定时刻-小节的开始时刻)/(小节的结束时刻-小节的开始时刻)×N+0.5|×L/N    ……数学表达式(14)
在数学表达式(14)中,值“0.5”提供了小数的四舍五入效果,并且可利用等于或大于“0”但是小于“1”的另一值来进行替换。例如,如果值被设定为“2”,其提供了对小数的去七保八的效果。该值被预存在存储部分22中,并且用户可经由操作部分25来进行改变。
如上所示,预先可通过操作人员从商业获取的音频循环素材提取各个组成音符的产生开始时刻来创建节奏模式数据和节奏模式数据。利用该音频循环素材,有时候有意地将往回的吉它声音从其预定的初始时可进行偏移,从而增大声音的听觉厚度。在这种情况下,可以通过调节上述参数的值而获得小数被上舍入或被下舍入的节奏模式数据。因此,所创建的节奏模式数据从中消除了前述偏移,从而用户可以出于搜索的目的在期望定时输入节奏模式,而不用担心从预定原始定时开始的偏移。
4-31.修改41
可通过其中节奏输入装置10和信息处理装置20被构建成集成单元的设备来实现本发明。将参考上述第一实施例和第二实施例来描述该修改。注意,其中节奏输入装置10和信息处理装置20被构建成集成单元的设备可被构建成例如便携电话、配置了触摸屏的移动通信终端等。下文将参考其中设备是配置了触摸屏的移动通信终端的情况描述该修改41。
图26是示出了构建为修改41的移动通信终端600的示图。移动通信终端600包括布置在其前表面的触摸屏610。用户可通过对触摸屏610的期望位置进行触摸来对移动通信终端600进行操作,并且与用户操作对应的内容被显示在触摸屏610上。注意,移动通信终端600的硬件结构类似于图3所示的结构,不同之处在于显示部分24和操作部分25的功能通过触摸屏610来实现、以及节奏输入装置10以及信息处理装置20被构建成集成单元。下文利用与图3相同的参考标号和字符描述控制部分、存储部分以及自动伴奏DB。
BPM指定滑动器201、基调指定键盘202以及和弦指定框203被显示在触摸屏610的上部区域。BPM指定滑动器201、基调指定键盘202以及和弦指定框203在结构和功能上类似于参考图11描述的那些结构和功能。并且,输出作为搜出结果的节奏模式记录的列表被显示在触摸屏610的下部区域。一旦用户指定了表示不同演奏部件的部件选择图像620的任意一个,则控制部分21就显示节奏模式记录的列表来作为针对用户指定的演奏部件的搜出结果。
项目“排列顺序”、“文件名称”、“相似度”、“BPM”以及“基调”类似于参考图11描述的那些。此外,诸如“流派”和“乐器类型”之类的其它相关信息也可显示。一旦用户从列表中指定了再现指示图像630的任意期望的一个,则与用户指定的再现指示图像630相对应的节奏模式记录被再现。这种移动通信终端600也可实现总体上与上述第一实施例和第二实施例相同的有利效果。
4-32.修改42
本发明可被实现为不同于诸如用于实现这样的乐音数据处理的方法或者用于使计算机实现图6所示的功能的程序之类的乐音数据处理设备。这种程序可被存储在存储介质(例如光盘)中而提供给用户,或者经由因特网等下载并安装至用户计算机。
4-33.修改43
除了上述实施例中采用的搜索模式(即,自动伴奏模式、替换搜索模式和跟随搜索模式)之外,可以实现切换至下列其它模式。第一个是其中以每小节为单位不断运行的搜索处理的模式,其是最类似于输入节奏模式的模式,或者是类似于输入节奏模式的预定数量的搜出结果被自动再现的模式。该模式一开始被应用于自动伴奏等。第二个是其中在用户完成节奏输入时响应于用户指示开始搜索而仅仅再现节拍声、并且其中自动地或者响应于操作指令而显示搜出结果的模式。
4-34.修改44
图32是示出了修改44中的UI(用户接口)示例的示图。在修改44中,具有LED的矩阵板90连接至信息处理装置20作为UI。该矩阵板是将多个用作操作器的板排列成矩阵构造(即二维)的装置。注意,该修改中的操作器可以是按钮,而不限于这种板。在图32所示的示例中,每个板具有一个或多个LED,并且各种状态中的任一种由LED的发光(ON)、熄灭(OFF)或颜色来表示。下文描述了使用此矩阵板90的再现控制的示例。
首先,用户指定了用户将要使用的演奏。“演奏”是多个乐音数据组的组合。每个演奏中组合的乐音数据组是彼此在音乐上良好相容并且由用户预先选择的。每个演奏包括多个演奏部件的乐音数据组,每个演奏部件至少一个乐音数据组。在乐音数据创建系统100中至少预置了一个演奏。用户可以同操作演奏切换按钮91来指定或选择期望的演奏。
一旦用户选择了演奏,则所选演奏中包括的乐音数据组被分配给区域92中的各个板,即将乐音数据组所代表的乐音分配给各个板。已经分配了乐音数据组的板的LED发光。在图32的示例中,五个乐音数据组分配给四个演奏部件的板,即鼓(Dr)、贝司(Ba)、和弦(Ch)和琶音(Ap)。在图32中,分配了代表当前再现乐音(即当前再现的乐音数据组)的乐音数据的每个板通过阴影来表示;实际上,是在对应于当前再现乐音数据组的板中通过与对应于当前不再现的乐音数据组的其它板的LED不同的颜色来使LED发光。在图32的示例中,正在再现分配给鼓(Dr)、贝司(Ba)、和弦(Ch)和琶音(Ap)的板的乐音。注意,基于乐音数据组的乐音是在与上述各实施例中描述的拍子、小节、基调等同步的同时进行再现(循环再现)的。
一旦用户在相应乐音数据组的再现期间按下了任一个板,则可以在乐音再现的开始和停止之间进行切换。例如,一旦用户在分配给“Ba1”板的乐音再现期间按下了“Ba1”板,则分配给“Ba1”板的乐音的再现停止。然后,如果用户在该状态下按下了“Ba2”板,则再现分配给“Ba2”板的乐音。此时,“Ba1”板的LED以表示当前停止乐音再现的颜色发光,而“Ba2”板的LED以表示当前正在进行乐音再现的颜色发光。此时,除了上述内容还可以显示音序器屏幕,于是在音序器屏幕上显示分配给板的乐句的演奏信息(节奏模式等)。
在此修改中,针对每个演奏部件,同一时刻仅能够再现一个乐音数据组。例如,一旦用户在分配给“Ba1”板的乐音再现期间按下了“Ba2”板,则分配给“Ba1”板的乐音再现停止,分配给“Ba2”板的乐音开始再现。此时,“Ba1”板的LED以表示当前停止乐音再现的颜色发光,而“Ba2”板的LED以表示当前正在进行乐音再现的颜色发光。不过也可以采用替代的构造,其中针对每个演奏部件可以同时再现多个乐音数据组。
此外,在区域92的右侧提供整体选择按钮93-1至93-5。一旦选择了任一整体选择按钮93,则对应于所选整体选择按钮93的同一水平板行中的全部演奏部件的乐音被整体选择。例如在图32的状态下选择了整体选择按钮93-2,则分配给“Dr1”、“Ba1”、“Cd1”和“Ap1”的乐音的再现停止,而分配给“Dr2”、“Ba2”、“Cd2”和“Ap2”的乐音开始再现。
此外,一旦通过按下的搜索按钮94按下了分配有乐音的任一板,则控制装置21进入搜索模式以执行搜索。在此修改中,成为搜索基调的节奏模式(或乐音音高模式)是通过矩阵板90输入的;这种通过矩阵板90输入节奏模式(或乐音音高模式)的方案可以与通过输入装置10或信息处理装置20输入的方案一起使用。具体来说使用输入区域95来输入节奏模式。在图32的示例中,在从左向右的方向上逐渐变高的不同乐音音高分配给输入区域95的多个板,并且在对应于用户按下输入区域95中任一板的时间点搜索节奏模式(或乐音音高模式)。
提供基调切换区域96来切换要再现的乐音的基调。不同的基调分配给切换区域96中的多个板。一旦用户按下了切换区域96中的任一板,则再现的乐音变成与按下的板对应的基调。或者,可以在信息处理装置20中设置和弦序列,使得要再现的乐音的基调或和弦根据和弦序列自动切换。
4-35.其它修改
虽然已经参考其中步骤Sb6中的节奏模式差异计算使用两个时间差异(即,基于节奏模式B的节奏模式A的时间差以及基于节奏模式A的节奏模式B的时间差)(所谓的“对称距离方案或方法”)的情况描述了上述实施例,但是本发明并不限于此,可以在节奏模式差异计算中仅使用两个时间差的任意一个。
并且,在其中利用MIDI数据来执行上述搜索或可听再现、并且其中以多音轨方式再现多个演奏部件的演奏数据组的情况下,可仅仅在特定的一个音轨上执行搜索。
此外,节奏类别确定或识别操作(步骤Sb2至Sb5)可免去,在该情况中可以仅仅利用步骤Sb6的节奏模式差异计算的结果来执行步骤Sb7的节奏模式距离计算操作。
此外,在节奏模式差异计算(步骤Sb6)中,计算出的差异的值可乘以每个相应的组成音符的击打强度的值,从而可以从搜出结果候选中很容易地排除包括具有较大击打强度的组成音符的每个节奏模式记录。
并且,虽然已经利用自动伴奏数据组(每个自动伴奏数据组均具有一个小节的长度)描述了上述实施例,但无需限制声音长度。
此外,用户可利用操作部分25而不是演奏控件或操作器来指定演奏部件。在这种情况下,随着用户在指定演奏部件之后操作演奏操作器,针对指定的演奏部件进行输入。例如,在这种情况下,即使用户在经由操作部分25指定了“贝司”部分之后操作和弦输入范围键盘11b,控制部分21也将该用户操作看作是“贝司”部件的输入。
并且,虽然参考其中诸如低音鼓输入操作板12a、小鼓输入操作板12b、踩镲输入操作板12c以及钹输入操作板12d之类的不同操作板以一对一的关系分配给不同音色的各个节奏部件的情况描述了上述实施例,但是本发明并不限于此,并且可以以能经由单个操作板执行不同音色的节奏部件的输入操作的方式进行配置。在这种情况下,用户可以经由操作部分25指定期望节奏部件的音色。
而且,虽然上文已经参考其中以从“0”至“1”的范围内的小数值表示节奏模式数据的情况描述了每个实施例,但是可以利用在例如“0”至“96”范围内的多个整数值来表示节奏模式数据。
而且,虽然上文已经参考其中检测具有高相似度的预定数量的搜出结果的情况描述了各个实施例,但是可根据不同于前述的另一条件来检测该预定数量的搜出结果。例如,检测相似度落入预定范围内的搜出结果,并且这样的预定范围可以由用户设置从而从如此设置的范围进行搜索。
而且,本发明可配备用于编辑乐音数据、自动伴奏数据、风格数据等的功能。在这种情况下,可以在显示搜出结果的屏幕上选择期望的乐音数据、自动伴奏数据和风格数据,以及在显示所选数据的屏幕上逐部件地展开并显示所选数据,以便可以针对每个演奏部件来完成诸如期望的乐音数据、自动伴奏数据、风格数据之类的各种数据的编辑。
另外,在本发明中,可用作乐音数据、自动伴奏数据和风格数据的声源不限于乐器乐音或声音,而可以是诸如人的语音或动物声音的其它各种声音,只要可以从声源中获得最小必需的参数(如声音产生时刻、声音强度、声音音高等)。即,在此说明书中,术语“声音数据“是指不仅包括乐器还包括人类、动物等的声音。
此外,可以通过不限于通过演奏操作输入的方案之外的任何期望方案来获得输入模式,例如对音量超过给定阈值的声音等进行采集以获得输入模式的方案。

Claims (23)

1.一种声音数据处理装置,其针对多个演奏部件中的每一个,在存储了多个演奏部件的部件演奏数据的数据库中搜索特定的部件演奏数据,所述针对每个演奏部件的部件演奏数据包括声音生成模式以及与所述声音生成模式对应的乐音数据,所述声音数据处理装置包括:
查询获取部分,其配置为获取查询模式,所述查询模式表示要作为搜索目标的声音生成模式;
搜索部分,其配置为在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据;和
搜索指令部分,其配置为响应于用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据,并且指令所述搜索部件将所识别的部件演奏数据的声音生成模式用作新的查询模式来执行搜索。
2.根据权利要求1所述的声音数据处理装置,其中所述搜索部分列出与查询模式对应的一个或多个部件演奏数据来作为搜出结果,并且
所述搜索指令部分识别通过所述搜索部分列出的一个或多个部件演奏数据中的任一个部件演奏数据。
3.根据权利要求2所述的声音数据处理装置,其中所述搜索部分还配置为识别要列出的部件演奏数据的范围。
4.根据权利要求1至3中任一项所述的声音数据处理装置,还包括编辑部分,其配置为根据用户的操作对识别的部件演奏数据进行编辑。
5.根据权利要求4所述的声音数据处理装置,其中所述搜索指令部分指令所述搜索部分将通过所述编辑部分编辑后的部件演奏数据的声音生成模式用作新的查询模式来执行搜索。
6.根据权利要求1至3中任一项所述的声音数据处理装置,还包括存储器,其配置为在其中存储与正在处理的一组演奏数据相关的数据,所述一组演奏数据包括多个演奏部件的部件演奏数据,并且
其中响应于用户操作从搜出结果中识别的一个部件演奏数据被存储到存储器中作为所述一组演奏数据中一个演奏部件的部件演奏数据。
7.根据权利要求6所述的声音数据处理装置,其中将存储在存储器中的所述一组演奏数据中全部演奏部件的部件演奏数据调整为在拍速或小节的时间长度上彼此同步。
8.根据权利要求1至3中任一项所述的声音数据处理装置,还包括声音生成装置,其配置为生成与部件演奏数据对应的演奏声音。
9.根据权利要求1所述的声音数据处理装置,其中所述数据库还在其中存储识别了多组演奏数据中每一组的信息,其中每组演奏数据包括多个演奏部件的部件演奏数据,
所述搜索部分从数据库中搜索包括与查询模式匹配的声音生成模式的部件演奏数据,并且列出包括搜出的部件演奏数据的一组或多组演奏数据,并且
所述搜索指令部分响应于用户操作在通过所述搜索部分列出的一组或多组演奏数据的任一组演奏数据中识别一个部件演奏数据。
10.根据权利要求9所述的声音数据处理装置,还包括存储器,其配置为在其中存储与当前正在处理的一组演奏数据相关的数据,并且
其中通过所述搜索部分列出的一组或多组演奏数据的任一组演奏数据被存储到所述存储器中。
11.根据权利要求10所述的声音数据处理装置,还包括编辑部分,其配置为根据用户操作对存储在所述存储器中的所述一组演奏数据以及在所述一组演奏数据中选择的部件演奏数据进行编辑,并且
所述存储器的存储内容根据所述编辑部分的编辑进行更新。
12.根据权利要求11所述的声音数据处理装置,其中存储在所述存储器中的所述一组演奏数据中全部演奏部件的部件演奏数据调整为在拍速或小节的时间长度上彼此同步。
13.根据权利要求9至12中任一项所述的声音数据处理装置,还包括声音生成装置,其配置为生成与部件演奏数据对应的演奏声音或者与所述一组演奏数据对应的演奏声音。
14.根据权利要求1至3和9至12中任一项所述的声音数据处理装置,还包括部件选择部分,其配置为选择多个演奏部件中的至少一个来作为搜索目标,并且
其中所述搜索部分在数据库中搜索包括与所述部件选择部分所选择的演奏部件匹配的声音生成模式并且与查询模式匹配的部件演奏数据。
15.根据权利要求1至3和9至12中任一项所述的声音数据处理装置,还包括和弦接收部分,其配置为接收用户指定和弦的输入,并且
其中与和弦演奏对应的演奏部件的部件演奏数据还包括识别和弦的和弦识别信息,并且
其中所述搜索部分在数据库中搜索不仅包括与所述和弦接收部分接收的和弦匹配的和弦识别信息还包括与查询模式匹配的声音生成模式的部件演奏数据。
16.根据权利要求1至3和9至12中任一项所述的声音数据处理装置,还包括音高接收部分,其配置为接收用户输入的乐音音高信息,并且
其中对应于旋律乐句演奏的演奏部件的部件演奏数据还包括构成旋律乐句的一个或多个音符的音高识别信息,并且
其中当通过所述搜索部分搜出的部件演奏数据是与旋律乐句演奏对应的演奏部件的部件演奏数据时,根据通过所述音高接收部分接收的音高识别信息来偏移构成所述旋律乐句的一个或多个音符的乐音音高。
17.根据权利要求1至3和9至12中任一项所述的声音数据处理装置,其中所述查询获取部分响应于用户输入期望的声音生成模式的操作获取用于搜索的查询模式。
18.一种计算机实现的方法,用于针对多个演奏部件中的每一个,在存储了多个演奏部件的部件演奏数据的数据库中搜索特定的部件演奏数据,所述针对每个演奏部件的部件演奏数据包括声音生成模式以及与所述声音生成模式对应的乐音数据,所述方法包括:
获取查询模式的步骤,所述查询模式表示要作为搜索目标的声音生成模式;
在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据的步骤;
指令步骤,用于响应于用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据,并且指令将所识别的部件演奏数据的声音生成模式用作新的查询模式来执行搜索;和
在数据库中搜索部件演奏数据的步骤,所述部件演奏数据包括与所述指令步骤指令的新的查询模式匹配的声音生成模式。
19.一种声音数据处理装置,其针对多个演奏部件中的每一个,在存储了多个演奏部件的部件演奏数据的数据库中搜索特定的部件演奏数据并且编辑所述特定的部件演奏数据,所述针对每个演奏部件的部件演奏数据包括声音生成模式以及与所述声音生成模式对应的乐音数据,所述声音数据处理装置包括:
查询获取部分,其配置为获取查询模式,所述查询模式表示要作为搜索目标的声音生成模式;
搜索部分,其配置为在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据;和
编辑部分,其配置为根据用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据,并且编辑所识别的部件演奏数据。
20.根据权利要求19所述的声音数据处理装置,其中所述数据库还在其中存储识别了多组演奏数据中每一组的信息,其中每组演奏数据包括多个演奏部件的部件演奏数据,
所述搜索部分从数据库中搜索包括与查询模式匹配的声音生成模式的部件演奏数据,并且列出包括搜出的部件演奏数据的一组或多组演奏数据,并且
所述编辑部分选择和编辑通过所述搜索部分列出的一组或多组演奏数据中的任一组演奏数据,并且编辑所选择的一组演奏数据中的部件演奏数据。
21.根据权利要求19所述的声音数据处理装置,还包括声音生成装置,其配置为生成与通过所述编辑部分编辑的数据相对应的演奏声音。
22.根据权利要求19至21中任一项所述的声音数据处理装置,还包括登记部分,其配置为将所述编辑部分编辑的结果登记到数据库中。
23.一种计算机实现的方法,用于针对多个演奏部件中的每一个,在存储了多个演奏部件的部件演奏数据的数据库中搜索特定的部件演奏数据并且编辑所述特定的部件演奏数据,所述针对每个演奏部件的部件演奏数据包括声音生成模式以及与所述声音生成模式对应的乐音数据,所述方法包括:
获取查询模式的步骤,所述查询模式表示要作为搜索目标的声音生成模式;
在数据库中搜索包含与查询模式匹配的声音生成模式的部件演奏数据的步骤;和
根据用户的操作,在从数据库中搜索出的部件演奏数据中识别一个部件演奏数据并且编辑所识别的部件演奏数据的步骤。
CN201210528900.4A 2011-12-09 2012-12-10 声音数据处理装置及方法 Expired - Fee Related CN103165115B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-270633 2011-12-09
JP2011270633 2011-12-09
JP2012-169821 2012-07-31
JP2012169821 2012-07-31

Publications (2)

Publication Number Publication Date
CN103165115A true CN103165115A (zh) 2013-06-19
CN103165115B CN103165115B (zh) 2017-11-28

Family

ID=47563003

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210528900.4A Expired - Fee Related CN103165115B (zh) 2011-12-09 2012-12-10 声音数据处理装置及方法

Country Status (4)

Country Link
US (1) US9563701B2 (zh)
EP (1) EP2602786B1 (zh)
JP (1) JP6056437B2 (zh)
CN (1) CN103165115B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105161081A (zh) * 2015-08-06 2015-12-16 蔡雨声 一种app哼唱作曲系统及其方法
CN106683651A (zh) * 2015-11-11 2017-05-17 谢剑 乐谱的展现方法
CN107430849A (zh) * 2015-03-20 2017-12-01 雅马哈株式会社 声音控制装置、声音控制方法和声音控制程序
CN110574107A (zh) * 2016-12-07 2019-12-13 韦弗音乐有限公司 数据格式
CN113140201A (zh) * 2020-01-17 2021-07-20 雅马哈株式会社 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103443849B (zh) * 2011-03-25 2015-07-15 雅马哈株式会社 伴奏数据产生设备
KR101667004B1 (ko) * 2014-12-17 2016-10-17 김좌한 전자 악보 서비스 제공 방법
CN104615359B (zh) * 2015-02-13 2018-05-29 小米科技有限责任公司 对应用软件进行语音操作的方法及装置
WO2017031421A1 (en) * 2015-08-20 2017-02-23 Elkins Roy Systems and methods for visual image audio composition based on user input
WO2017056982A1 (ja) * 2015-09-30 2017-04-06 ヤマハ株式会社 楽曲検索方法および楽曲検索装置
US9640158B1 (en) * 2016-01-19 2017-05-02 Apple Inc. Dynamic music authoring
US9646587B1 (en) * 2016-03-09 2017-05-09 Disney Enterprises, Inc. Rhythm-based musical game for generative group composition
USD901523S1 (en) 2016-06-18 2020-11-10 Sunland Information Technology Co., Ltd. Display screen of smart piano with transitional graphical user interface
USD900864S1 (en) 2016-06-18 2020-11-03 Sunland Information Technology Co., Ltd. Display screen of smart piano with transitional graphical user interface
USD847851S1 (en) * 2017-01-26 2019-05-07 Sunland Information Technology Co., Ltd. Piano display screen with graphical user interface
USD823333S1 (en) * 2017-05-30 2018-07-17 Yamaha Corporation Display screen with graphical user interface
CN108062522B (zh) * 2017-12-12 2020-03-06 广州德科投资咨询有限公司 一种机器人的演奏模式生成方法及机器人
JP2019200390A (ja) 2018-05-18 2019-11-21 ローランド株式会社 自動演奏装置および自動演奏プログラム
CN109616090B (zh) * 2018-12-24 2020-12-18 北京达佳互联信息技术有限公司 多音轨序列生成方法、装置、设备及存储介质
CN110278201B (zh) * 2019-06-12 2022-08-23 深圳市腾讯计算机系统有限公司 安全策略评价方法及装置、计算机可读介质和电子设备
CN112347300A (zh) * 2019-08-08 2021-02-09 哈曼国际工业有限公司 用于实现节奏型曲目智能匹配与添加的方法和系统
JP7190056B2 (ja) * 2019-09-04 2022-12-14 ローランド株式会社 自動演奏装置および自動演奏プログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6528715B1 (en) * 2001-10-31 2003-03-04 Hewlett-Packard Company Music search by interactive graphical specification with audio feedback
JP2005227850A (ja) * 2004-02-10 2005-08-25 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
JP2005338353A (ja) * 2004-05-26 2005-12-08 Matsushita Electric Ind Co Ltd 音楽検索装置
CN1755686A (zh) * 2004-09-30 2006-04-05 株式会社东芝 音乐搜索系统和音乐搜索装置
CN1890665A (zh) * 2003-12-08 2007-01-03 皇家飞利浦电子股份有限公司 旋律数据库搜索
US20110125738A1 (en) * 2005-02-07 2011-05-26 Microsoft Corporation, Inc. Method and system for performing secondary search actions based on primary search result attributes

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2550825B2 (ja) 1992-03-24 1996-11-06 ヤマハ株式会社 自動伴奏装置
JP3340565B2 (ja) 1994-07-25 2002-11-05 ヤマハ株式会社 自動伴奏装置
JPH11120198A (ja) * 1997-10-20 1999-04-30 Sony Corp 楽曲検索装置
US20050038819A1 (en) * 2000-04-21 2005-02-17 Hicken Wendell T. Music Recommendation system and method
US6188010B1 (en) * 1999-10-29 2001-02-13 Sony Corporation Music search by melody input
IT1316734B1 (it) * 2000-07-07 2003-05-12 Korg Italy S P A Dispositivo elettronico avvalentesi di piu' sequecers capaci difunzionare in maniera indipendente o coordinata
JP3480433B2 (ja) 2000-07-31 2003-12-22 ヤマハ株式会社 マルチトラック・ディジタル録音再生装置
US7392101B2 (en) 2000-07-31 2008-06-24 Yamaha Corporation Multi-track digital recording/reproducing apparatus and method, multi-track digital recording/reproducing program
KR100424677B1 (ko) * 2001-04-16 2004-03-27 한국전자통신연구원 객체 기반의 대화형 멀티미디어 컨텐츠 저작 장치 및 그방법
US20070106405A1 (en) * 2005-08-19 2007-05-10 Gracenote, Inc. Method and system to provide reference data for identification of digital content
US20070124293A1 (en) * 2005-11-01 2007-05-31 Ohigo, Inc. Audio search system
US20100198760A1 (en) * 2006-09-07 2010-08-05 Agency For Science, Technology And Research Apparatus and methods for music signal analysis
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
JP5023752B2 (ja) 2007-03-22 2012-09-12 ソニー株式会社 コンテンツ検索装置、コンテンツ検索方法及びコンテンツ検索プログラム
JP5982980B2 (ja) * 2011-04-21 2016-08-31 ヤマハ株式会社 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6528715B1 (en) * 2001-10-31 2003-03-04 Hewlett-Packard Company Music search by interactive graphical specification with audio feedback
CN1890665A (zh) * 2003-12-08 2007-01-03 皇家飞利浦电子股份有限公司 旋律数据库搜索
JP2005227850A (ja) * 2004-02-10 2005-08-25 Toshiba Corp 情報処理装置、情報処理方法及びプログラム
JP2005338353A (ja) * 2004-05-26 2005-12-08 Matsushita Electric Ind Co Ltd 音楽検索装置
CN1755686A (zh) * 2004-09-30 2006-04-05 株式会社东芝 音乐搜索系统和音乐搜索装置
US20110125738A1 (en) * 2005-02-07 2011-05-26 Microsoft Corporation, Inc. Method and system for performing secondary search actions based on primary search result attributes

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107430849A (zh) * 2015-03-20 2017-12-01 雅马哈株式会社 声音控制装置、声音控制方法和声音控制程序
CN105161081A (zh) * 2015-08-06 2015-12-16 蔡雨声 一种app哼唱作曲系统及其方法
CN105161081B (zh) * 2015-08-06 2019-06-04 蔡雨声 一种app哼唱作曲系统及其方法
CN106683651A (zh) * 2015-11-11 2017-05-17 谢剑 乐谱的展现方法
CN110574107A (zh) * 2016-12-07 2019-12-13 韦弗音乐有限公司 数据格式
CN113140201A (zh) * 2020-01-17 2021-07-20 雅马哈株式会社 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序
CN113140201B (zh) * 2020-01-17 2024-04-19 雅马哈株式会社 伴奏音生成装置、电子乐器、伴奏音生成方法及伴奏音生成程序

Also Published As

Publication number Publication date
EP2602786A3 (en) 2016-08-17
CN103165115B (zh) 2017-11-28
JP6056437B2 (ja) 2017-01-11
US20130151556A1 (en) 2013-06-13
US9563701B2 (en) 2017-02-07
EP2602786A2 (en) 2013-06-12
EP2602786B1 (en) 2018-01-24
JP2014044386A (ja) 2014-03-13

Similar Documents

Publication Publication Date Title
CN102640211B (zh) 根据与节奏模式的相似度搜索乐音数据组
CN103165115A (zh) 声音数据处理装置及方法
US7792782B2 (en) Internet music composition application with pattern-combination method
Cancino-Chacón et al. Computational models of expressive music performance: A comprehensive and critical review
Widmer et al. In search of the Horowitz factor
CN101796587B (zh) 声音旋律的自动伴奏
Benetos et al. Automatic music transcription: challenges and future directions
CN102760426B (zh) 使用表示乐音生成模式的演奏数据搜索
US7858867B2 (en) Metadata-based song creation and editing
Eigenfeldt et al. Considering Vertical and Horizontal Context in Corpus-based Generative Electronic Dance Music.
US9378718B1 (en) Methods and system for composing
CN101800046A (zh) 一种根据音符生成midi音乐的方法和装置
Bittner et al. Automatic Playlist Sequencing and Transitions.
Cogliati et al. Transcribing Human Piano Performances into Music Notation.
CN102760428A (zh) 使用表示乐音生成模式的查询的演奏数据搜索
Meade et al. Exploring conditioning for generative music systems with human-interpretable controls
Misgeld et al. The melodic beat: exploring asymmetry in polska performance
JP2012137755A (ja) 音信号生成装置及びプログラム
Kim et al. Statistical approach to automatic expressive rendition of polyphonic piano music
Dixon Analysis of musical expression in audio signals
Faraldo et al. The house harmonic filler: Interactive exploration of chord sequences by means of an intuitive representation
DeAmon Predicting and Composing a Top Ten Billboard Hot 100 Single with Descriptive Analytics and Classification
Cheston et al. Rhythmic Qualities of Jazz Improvisation Predict Performer Identity and Style in Source-Separated Audio Recordings
Monteiro Concatenative Synthesis Applied to Rhythm
Faraldo Pérez et al. The House Harmonic Filler: interactive exploration of chord sequences by means of an intuitive representation

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171128

Termination date: 20201210

CF01 Termination of patent right due to non-payment of annual fee