CN102760428A - 使用表示乐音生成模式的查询的演奏数据搜索 - Google Patents

使用表示乐音生成模式的查询的演奏数据搜索 Download PDF

Info

Publication number
CN102760428A
CN102760428A CN201210121046XA CN201210121046A CN102760428A CN 102760428 A CN102760428 A CN 102760428A CN 201210121046X A CN201210121046X A CN 201210121046XA CN 201210121046 A CN201210121046 A CN 201210121046A CN 102760428 A CN102760428 A CN 102760428A
Authority
CN
China
Prior art keywords
rhythm pattern
user
parts
rhythm
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201210121046XA
Other languages
English (en)
Other versions
CN102760428B (zh
Inventor
渡边大地
藤岛琢哉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN102760428A publication Critical patent/CN102760428A/zh
Application granted granted Critical
Publication of CN102760428B publication Critical patent/CN102760428B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/383Chord detection and/or recognition, e.g. for correction, or automatic bass generation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • G10H1/386One-finger or one-key chord systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • G10H1/42Rhythm comprising tone forming circuits
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/341Rhythm pattern selection, synthesis or composition
    • G10H2210/361Selection among a set of pre-established rhythm patterns
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/141Library retrieval matching, i.e. any of the steps of matching an inputted segment or phrase with musical database contents, e.g. query by humming, singing or playing; the steps may include, e.g. musical analysis of the input, musical feature extraction, query formulation, or details of the retrieval process

Abstract

本发明提供了用于在存储装置中搜索演奏数据组的设备和方法,用户通过操作节奏输入装置来输入期望的搜索目标节奏模式作为查询模式。此时,确定用户在节奏输入装置上执行的操作的风格,比如用户是操作了单个键还是多个键、或者操作的持续时间或强度,随后,基于确定的操作风格来从构成演奏数据组(自动伴奏数据组)的一个或多个演奏部件当中识别出用户想要的演奏部件。针对如此识别出的演奏部件,节奏模式搜索部分在自动伴奏数据库中搜索包括了与输入节奏模式(查询模式)相匹配的节奏模式的自动伴奏数据组。

Description

使用表示乐音生成模式的查询的演奏数据搜索
技术领域
本发明一般地涉及搜索具有与用户输入的查询模式匹配的乐音(即声音)生成模式的演奏数据组,并且更特别地涉及使用这种搜索技术的乐音数据处理设备和方法。应当注意,术语“乐音”在本文用来指称任何类型的所有声音,比如语音、刮擦声、噪声、效果声音和环境声音以及音乐声。
背景技术
在电子乐器领域中,迄今为止已经公知一种所谓的“自动伴奏”功能。一般而言,在自动伴奏中,根据由自动伴奏数据组所指示的伴奏序列来可听地产生与演奏者或用户通过操作指定的组件音符(component note)相对应的乐音。这种自动伴奏数据组可以包括一个或多个旋律音和/或节奏音。通过使用这种自动伴奏功能,即使是单个演奏者也能实现包括和弦音及节奏音的丰富乐音的演奏。日本专利申请公开No.2010-102076(以下称为“相关专利文献”)公开了这样一种技术,其允许用户通过使用乐曲名、艺术家名称、专辑名、音乐流派、拍速、音乐拍子和其他关键字的任一项来搜索自动伴奏数据组,并随后与基于搜出的自动伴奏数据组所指示的自动伴奏序列的乐音合拍地执行演奏。
然而,如果数据中包含的声源数据数量非常巨大,则采用在相关专利文献中公开的搜索方法要求大量的时间和劳动以用于从存储在数据库中的大量自动伴奏数据组当中搜出用户期望的自动伴奏数据组。而且,采用在相关专利文献中公开的搜索方法,用户还必须预先知道上述信息,比如乐曲名,并随后输入该信息,因此,用户不能直观和有效地搜出期望的自动伴奏数据组。此外,一般而言,自动伴奏数据组每一个都包括多个演奏部件(比如贝司、鼓、键盘)的组合。然而,当用户想到一个特定演奏部件的乐句时,采用相关专利文献中公开的搜索方法,用户不能通过使用这样一个特定演奏部件的乐句来搜出自动伴奏数据组。
发明内容
考虑到现有技术的上述问题,本发明的一个目的是提供一种改进的技术,用于搜索具有与用户输入的查询模式相匹配的声音生成模式的演奏数据组。更具体地,本发明致力于搜索具有包括了满足与用户想要的声音模式相似的预定条件的声音模式的乐句的自动伴奏相关声音数据组。
为实现上述目的,本发明提供了一种用于在存储装置中搜索演奏数据组的改进设备,所述存储装置中存储了多个演奏数据组,每个演奏数据组包括一个或多个演奏部件的部件的演奏数据,每个演奏部件的部件演奏数据包括声音生成模式,所述设备被连接到可由用户操作的输入装置,所述设备包括:识别部分,其确定由用户在所述输入装置上执行的操作的风格,并且基于确定的操作风格来将所述演奏部件的至少一个识别为搜索目标部件;查询获取部分,其获取表示要被作为搜索目标的声音生成模式的搜索查询模式;和搜索部分,其在所述存储装置中搜索如下部件演奏数据,所述部件演奏数据包括不仅与由所述识别部分识别的演奏部件相匹配而且与由所述查询获取部分获取的搜索查询模式相匹配的声音生成模式。
优选地,本发明的所述设备还包括对应关系表格,其中存储了所述一个或多个演奏部件中的各个演奏部件与在所述输入装置上的操作的多个类型的风格中的各个风格之间的对应关系,并且所述识别部分按照所确定的操作风格通过参考所述对应关系表格来识别出所述演奏部件中的至少一个。
优选地,在本发明的设备中,所述搜索部分还从所述存储装置中提取包括了从所述存储装置搜出的部件演奏数据的至少一个演奏数据组。
优选地,在本发明的设备中,所述查询获取部分响应于用户经由所述输入装置执行的用于输入期望的声音生成模式的输入操作来获取搜索查询模式。
优选地,在本发明的设备中,所述输入装置包括多个控件,并且所述识别部分基于用户在预定时间段内操作的控件数量是单个还是多个来确定用户的操作风格。
优选地,在本发明的设备中,所述输入装置包括至少一个控件,并且所述识别部分基于用户在控件上执行的操作的持续时间是否超过阈值来确定用户的操作的风格。
优选地,在本发明的设备中,所述输入装置包括至少一个控件,并且所述识别部分基于用户在控件上执行的操作的强度是否超过阈值来确定用户的操作的风格。
根据本发明,用户能够通过输入与搜索目标演奏部件相关联的、要被作为搜索对象或搜索目标的期望声音生成模式以作为搜索查询模式,来容易地以感官操作而输入搜索查询。此外,用户能够获得适合于他或她的感觉或强度的期望的搜出结果。
由于确定了用户在节奏输入装置上执行的操作的风格,并且将至少一个演奏部件识别为搜索目标,因此用户能够通过适当地使用有限的输入装置资源以各种各样的操作风格来有效地选中搜索目标演奏部件。
本发明不仅可以被构造和实现为上述设备发明,而且还可以构造和实现为方法发明。并且,本发明可以被配置和实现为由计算机或DSP之类的处理器执行的软件程序,以及存储了这种软件程序的非易失性存储介质。在该情况下,该程序可以在存储介质中提供给用户并随后安装到用户的计算机中,或者经由通信网络从服务器设备传送给客户计算机并随后安装到客户的计算机中。此外,本发明中使用的处理器可以包括具有专用逻辑嵌入式硬件的专用处理器,当然也包括能够运行期望软件程序的计算机或其他通用处理器。
下面将描述本发明的实施例,但应当理解本发明不限于所述实施例,不脱离基本思想的本发明的各种修改也是可以的。因此本发明的范围仅由所附权利要求确定。
附图说明
下面将参照附图以仅仅示例的方式详细描述本发明的某些优选实施例,其中:
图1是示出根据本发明一个实施例的系统的一般设置的示意性示图;
图2是在图1的系统中的节奏输入装置的示意性示图;
图3是示出在图1的系统中的信息处理装置的示例硬件设置的框图;
图4A至图4C是示出在信息处理装置中的自动伴奏DB的示例内容的示意性示图;
图5是示出在信息处理装置中的自动伴奏DB的示例内容的示意性示图;
图6是示出在信息处理装置中的自动伴奏DB的示例内容的示意性示图;
图7是示出信息处理装置的功能布置的框图;
图8是示出由节奏模式搜索部分和搜索信息处理部分执行的搜索处理的示例操作序列的流程图;
图9A至图9C是示出ON-设定时刻间隔的分布表格的示图;
图10是说明节奏模式之间的差异的计算的示意性示图;
图11A至图11C是示出用于自动伴奏数据的搜出结果的列表的示图;
图12是示出改型2中采用的自动伴奏DB的示例内容的示意性示图;
图13是示出改型2中采用的自动伴奏DB的示例内容的示意性示图;
图14是示出在改型6中对自动伴奏数据集的各个组件音符应用了渐弱的一个实例的示意性示图;
图15A和图15B是示出在改型11中采用的部件表格的示例内容的示图;
图16是示出ON-设定时刻间隔表格的一个示例的示图;
图17是示出距离参考表格的一个示例的示图;和
图18是示出ON-设定时刻表格的一个示例的示图。
具体实施方式
<优选实施例的构造>
图1是示出根据本发明一个实施例的乐音数据处理系统100的一般设置的示意性示图。乐音数据处理系统100包括节奏输入装置10和信息处理装置20,并且节奏输入装置10和信息处理装置20经由通信线可通信地互连。可以以无线方式实现节奏输入装置10与信息处理装置20之间的通信。在本实施例中,节奏输入装置10例如包括键盘作为输入手段或部分。响应于用户按下节奏输入装置10中提供的键盘的任何键,节奏输入装置10向信息处理装置20输入触发数据和速度数据,触发数据指示已经按下了键盘的任一个键,即,用户已经执行演奏操作,速度数据指示或表示基于每小节(或节)的键按下的强度(intensity),即演奏操作的强度。每当用户按下键盘的任一个键,就产生一个触发数据,并且速度数据与每个触发数据相关联。在每个小节(或节)之内产生的一组触发数据与速度数据表示了由用户使用节奏输入装置10输入的节奏模式(下文有时称为“输入节奏模式”)。即,节奏输入装置10是用户输入演奏操作所利用的输入装置的一个示例。另外,节奏输入装置10还用作用户输入乐音生成模式(即声音生成模式)以作为搜索查询模式的操作装置。替代方案是,例如,输入装置10作为操作装置可以构造为允许用户通过选择或指定多个预存储的伴奏模式中的任意一个来输入期望的乐音生成模式。
信息处理装置20例如是PC(个人计算机)。信息处理装置20包括含有多个自动伴奏数据组的数据库。每个自动伴奏数据组包括多个演奏部件,每个演奏部件具有唯一的节奏模式。信息处理装置20在数据库中搜索具有与用户经由针对用户指定演奏部件的节奏输入装置10所输入的节奏模式相同或相似的节奏模式的自动伴奏数据组,然后显示搜出的结果(即搜出的自动伴奏数据组)的名称列表。随后,信息处理装置20基于由用户从显示的列表中选择的自动伴奏数据组来可听地输出乐音。此时,信息处理装置20基于用户选择的搜出的自动伴奏数据组来反复再现乐音。注意,这种搜索功能由用户操作后文描述的操作部分25来打开或关闭。注意,自动伴奏数据组可以是琶音模式以及其他期望类型的音乐演奏模式,而不限于节奏模式。前述数据库(即后文将描述的自动伴奏数据库221)可以提供在信息处理装置20的外部,在该情况下,该数据库可以经由通信网络与信息处理装置20通信。
图2是节奏输入装置10的示意性示图。节奏输入装置10包括键盘200和输入操作板14作为输入手段。通过使用这些输入手段中的任一个,用户可以输入将被作为搜索对象或搜索目标的期望乐音生成模式(通常是期望的节奏模式),以作为搜索查询模式。基于输入的搜索查询模式(通常为节奏模式),信息处理装置20在其中存储了多个演奏数据组的存储装置(例如后文描述的自动伴奏数据库221)中搜索具有与输入搜索查询模式相匹配的乐音生成模式(例如节奏模式或旋律模式)的演奏数据组(例如自动伴奏数据组)。众所周知,每个自动伴奏数据组(其为演奏数据组的一个示例)包括各种不同演奏部件的组合,比如贝司、和弦、基于单音符的乐句、低音鼓、小鼓、踩镲(high-hat)和钹。不同的演奏部件与节奏输入装置10中的键盘200的预定范围和输入操作板14的类型相关联。例如,贝司部件与贝司乐音输入键盘范围11相关联,并且和弦部件以及基于单音符的乐句部件与旋律音输入键盘范围12相关联。信息处理装置20根据用户对旋律音输入键盘范围12已执行的演奏操作的方式或风格来识别用户指定的是和弦部件还是乐句部件。更具体的说,如果用户一次仅按下了一个键,则信息处理装置20识别出用户指定了乐句部件,而如果用户一次按下了多个键,则信息处理装置20识别出用户指定了和弦部件。此外,低音鼓部件与低音鼓乐音输入操作板14a相关联,小鼓部件与小鼓乐音输入操作板14b相关联,踩镲部件与踩镲乐音输入操作板14c相关联,并且钹部件与钹鼓乐音输入操作板14d相关联。通过执行对节奏输入装置10的键盘200的期望位置或范围或者输入操作板14的期望类型进行指定的演奏操作,用户可以搜索与指定的输入手段(即键盘范围或操作板)相关联的演奏部件的自动伴奏数据组。注意,仅仅一个演奏部件可以与预定的一个键盘范围相关联。例如,仅仅和弦部件可以与键盘范围12相关联。
例如,一旦用户通过按下贝司乐音输入键盘范围11的键来输入节奏模式,则信息处理装置20就识别出与输入的节奏模式具有相同或相似的节奏模式的贝司乐句,并随后将以所识别出的贝司乐句作为其组件的一个自动伴奏数据组显示为搜出结果。在以下的描述中,有时也将贝司乐音输入键盘范围11、旋律音输入键盘范围12、低音鼓乐音输入操作板14a、小鼓乐音输入操作板14b、踩镲乐音输入操作板14c和钹乐音输入操作板14d称为“演奏控件”,因为它们被用户操作以用于输入节奏模式。本文使用的术语“操作风格”、“用户操作的风格”、“用户的操作风格”之类指的是用户操作任何演奏控件的风格,比如关于用户操作演奏控件中的仅仅一个或者两个或多个演奏控件(即用户操作的控件的数量为单个或多个)的风格,演奏操作的持续时间或强度,等等。一旦用户在节奏输入装置10上操作了任何演奏控件,则节奏输入装置10就对信息处理装置20输入MIDI(乐器数字接口)格式的信息(以下称为“MIDI信息”)。这种MIDI信息除了上述触发数据和速度数据外还包括一个或多个音符编号(如果操作的演奏控件为键盘)或者通道编号(如果操作的演奏控件为输入操作板之一)。信息处理装置20从接收的MIDI信息识别出将要执行搜索的演奏部件(即搜索目标演奏部件或搜索目标部件)。
图3是示出信息处理装置20的示例硬件设置的框图。信息处理装置20包括经由总线互连的控制部分21、存储部分22、输入/输出接口部分23、显示部分24、操作部分25和声音输出部分26。控制部分21包括CPU(中央处理单元)、ROM(只读存储器)、RAM(随机存取存储器)等。CPU读出存储在ROM或存储部分22中的应用程序,将所读出的应用程序载入RAM,执行所载入的应用程序,从而经由总线控制各个部分。此外,RAM用作将被CPU例如在处理数据时使用的工作区。
存储部分22包括自动伴奏数据库(DB)221,其包含(存储了)多个演奏数据组。每个演奏数据组(例如自动伴奏数据组)包括多个演奏部件的部件演奏数据,并且针对每一个演奏部件的部件演奏数据包括乐音生成模式(节奏模式或旋律模式)和对应于乐音生成模式的乐音数据。作为一个示例,自动伴奏数据库221存储了至少一些MIDI信息格式的自动伴奏数据组。输入/输出接口部分23不仅将从节奏输入装置10输出的数据输入至信息处理装置20,而且根据控制部分21给出的指令来将各种信号输出至输入装置10,以便控制节奏输入装置10。显示部分24例如具有向用户显示对话屏幕等的可视显示器的形式。操作部分25例如具有鼠标键盘单元的形式,其响应于用户操作而从控制部分21接收信号或向其提供信号。控制部分21根据从操作部分25接收到的信号来控制各个部分。声音输出部分26包括DAC(数字-模拟转换器)、放大器和扬声器。声音输出部分26基于MIDI信息将控制部分21从自动演奏DB 221搜出的数字乐音数据通过DAC转换成模拟乐音数据,通过放大器放大该模拟乐音数据,并通过扬声器可听地输出与放大后的模拟声音信号相对应的乐音。
图4A至图4C、图5和图6是示出自动伴奏DB 221的示例内容的示意性示图。自动伴奏DB 221包含部件表格、乐器类型表格、节奏类别表格、节奏模式表格和风格表格。图4A示出部件表格的一个示例。图4A中的“部件ID”是对构成乐音数据组的演奏部件进行唯一标识的标识符,并且其以例如2位数表示。“部件”是表示演奏部件的类型的名称。不同的部件ID在部件表格中与各自的演奏部件“贝司”、“和弦”、“乐句”、“低音鼓”、“小鼓”、“踩镲”、和“钹”相关联地被描述。“音符编号”是表示演奏部件被分配到键盘200的哪一个键范围的MIDI信息。根据MIDI信息,音符编号“60”被分配到键盘的“中央C”。利用音符编号“60”作为基础,等于或小于阈值“45”的音符编号被分配到“贝司”部件,并且大于阈值“45”的音符编号被分配到“和弦”及“乐句”部件。注意,上述阈值仅仅为示例性的,并且可以由用户按需要来改变。
在下面的描述中,术语“控件数量”用来指用户一次操作的控件的数量。例如,“控件数量”对于“和弦”部件是多个,即两个或以上,这是因为对于“和弦”部件,用户一次按下或操作了多个控件(在该情况下是键盘的键)。另外,“通道信息”是表示演奏部件被分配到哪一个输入操作板的MIDI信息。在所示示例4A中,通道信息“14a”被分配到“低音鼓”部件,通道信息“14b”被分配到“小鼓”部件,通道信息“14c”被分配到“踩镲”部件,并且通道信息“14d”被分配到“钹”部件。也就是说,自动伴奏DB 221中的部件表格是存储各个演奏部件与输入装置10上的各个控件之间的对应关系、和/或各个演奏部件与用户对控件执行的各个操作风格之间的预定对应关系的表格的一个示例。
图4B示出乐器类型表格的一个示例。“部件ID”与上面关于图4A的描述相同。“乐器类型ID”是唯一标识一个乐器的类型的标识符,“乐器类型ID”例如由三位数表示。“乐器类型”是表示乐器的类型的名称。例如,不同的乐器类型ID在乐器类型表格中与各自的乐器类型相关联地被描述,比如“木贝司”、“电贝司”和“击弦贝司(slap bass)”。例如,乐器类型“木贝司”在乐器类型表格中与乐器类型ID“001”相关联地描述。类似地,其他乐器类型在乐器类型表格中与它们各自的乐器类型ID相关联地描述。注意,图4B中示出的乐器类型仅仅为示例性的,并且可以描述其他乐器类型。注意,在本实施例中,“乐器类型”与音色数据(音色ID)同义。
图4C示出节奏类别表格的一个示例。“节奏类别ID”是唯一标识节奏模式的类别(本文也称为“节奏类别”)的标识符,并且每个“节奏类别ID”例如由二位数表示。这里,每个节奏模式表示在预定时间长度的时间段之内要可听地产生各个音符的一系列时刻。特别地,在本实施例中,每个“节奏模式”表示在作为预定时间段的一个示例的一个小节(节)之内要可听地产生各个音符的一系列时刻。“节奏类别”是表示节奏类别的名称,并且在节奏类别表格中将多个唯一节奏类别ID与各自的节奏类别(如“八分”、“十六分”和“八分三连音”)相关联地描述。例如,“八分”节奏类别在节奏类别表格中与节奏类别ID“01”相关联地描述。注意,图4C中示出的节奏类别仅仅为示例性的,并且可以使用或描述其他任何节奏类别。例如,可以采用粗略地分成节拍或流派的分类方式,或者通过将单独的类别ID分配给每个节奏模式来实现更细的分类。
图5示出节奏模式表格的一个示例。在该节奏模式表格中,针对唯一地标识一个演奏部件的每个部件ID来描述多组节奏模式记录(部件演奏数据)。在图5中,示出了“贝司”部件(部件ID“01”)的多个节奏模式记录,作为节奏模式表格的一个示例。每一个节奏模式记录(部件演奏数据)都包括多个项目,比如“部件ID”、“乐器类型ID”、“节奏模式ID”、“节奏类别ID”、“节奏模式数据”和“击打强度模式数据”。如上所述,“乐器类型ID”是唯一标识乐器类型的标识符。按照乐器类型ID对具有相同部件ID的节奏模式记录进行分组,并且用户可以在通过使用输入装置10输入节奏之前使用操作部分25来选择一个乐器类型。由用户选择的乐器类型存储在RAM中。“节奏模式ID”是唯一标识节奏模式记录的标识符,并且其具有例如四位数的形式。“节奏类别ID”是标识一个节奏模式记录属于哪一个节奏类别的标识符。在图5所示的示例中,“节奏类别ID”为“01”的节奏模式记录属于如图4C中所示节奏类别表格中指示的“八分”(即八分音符)节奏类别。
“节奏模式数据”包括其中记录了构成一个小节的乐句的各个组件音符的声音产生起始时刻的数据文件;例如,该数据文件是具有这里所述的各个组件音符的声音产生起始时刻的文本文件。在后面描述的匹配操作中,节奏模式数据中的各声音产生起始时刻与输入节奏模式(被输入以用于搜索的查询模式,下文还将被称为“搜索查询模式”)中包括的、并且指示用户已经执行了演奏操作的触发数据相关联。这里,使用一个小节的长度作为值“1”来预先对每个组件音符的声音产生起始时刻进行归一化。即,在节奏模式数据中描述的每个组件音符的声音产生起始时刻取从“0”至“1”的范围中的值。在所示示例中,对应于节奏模式(乐音生成模式)的乐音数据(波形数据)组被存储在不同于节奏模式的另一存储区域中,并且乐音数据(波形数据)组由相同演奏部件的乐器类型ID来标识。作为替代,可以将对应于节奏模式(乐音生成模式)的乐音数据(波形数据)组以及节奏模式(乐音生成模式)作为“节奏模式数据”存储在节奏模式表格中。在这样的情况下,节奏模式数据包括下文将描述的各种声音文件格式的任一个的音频数据。此外,可以针对每个演奏部件单独地存储乐音数据(波形数据)组,或者,作为另一示例,可以将多个演奏部件(例如构成一种“风格”的所有演奏部件)的乐音数据(波形数据)组存储在一起作为单个文件。
在自动伴奏DB 221中包含的节奏模式表格和相关的乐音数据存储区对应于将乐音生成模式(节奏模式)和对应于乐音生成模式(节奏模式)的乐音数据组与各个演奏部件相关联地存储的存储装置。每个节奏模式是在预定时间长度的时间段(在此情况中为一个小节)之内的多个乐音的生成模式,其表示要在该时间段之内可听地产生各个音符的一系列声音产生时刻。
可以以如下方式预先生成节奏模式数据。想要生成节奏模式数据的人员或操作者从可商业得到的音频循环(loop)素材提取组件音符起始时刻。随后,操作者在可忽略的范围内从所提取的组件音符中去除不必要的组件音符起始时刻,比如幻音的起始时刻。
还可以通过从可商业地得到的音频循环素材中自动去除幻音来从该素材提取节奏模式数据,而不限于上面所述的通过操作者从可商业得到的音频循环素材中去除幻音的方式或方法。例如,在从中提取了节奏模式数据的数据为MIDI格式的情况下,可以通过计算机以下述方式来生成节奏模式数据。计算机的CPU从针对一个小节的MIDI格式的数据中提取特定通道的组件音符的产生起始时刻,并去除难以判断为节奏输入的幻音(比如具有极小速度数据的音符)。然后,如果在从中去除了幻音的MIDI格式的数据中在预定时间段之内存在多个输入,比如和弦输入,则计算机的CPU通过执行用于将这多个输入组织或组合成一个节奏输入的处理来自动生成节奏模式数据。
此外,对于鼓部件,多个乐器(比如低音鼓、小鼓和钹)的声音有时会存在于一个通道内。在这样的情况下,计算机的CPU以如下方式提取节奏模式数据。另外,对于鼓部件,乐器声音在很多情况下都被预先固定地分配到各个音符编号。这里假设小鼓的音色被分配到音符编号“40”。基于该假设,计算机的CPU通过提取对小鼓的音色所分配的音符编号的各个组件音符的声音产生起始时刻,来在其中记录有伴奏声源的鼓部件的通道中提取小鼓的节奏模式数据。
替代方案是,在诸如低音鼓、小鼓和钹的多个乐器的声音存在于一个通道内的情况下,可以根据音高范围而不是根据乐器类型来将声音分成多个部分。例如,其中记录有伴奏声源的鼓部件的通道的声音信号可以分成三个音高范围,即低、中和高音范围,从而提取三个部分(音高范围部分)的声音信号,然后从所提取的每个音高范围部分的声音信号中提取节奏模式(乐音生成模式)。
“击打强度模式数据”是其中记录有构成一个小节的乐句的各个组件音符的击打强度的数据文件;例如,击打强度模式数据是其中将各个组件音符的声音产生起始时刻描述为数字值的文本文件。击打强度对应于输入节奏模式中包括的速度数据,并且表示用户演奏操作的强度。即,每个击打强度表示乐句的组件音符的强度值。击打强度可以在文本文件中被描述为MIDI信息的速度数据本身。图5以示例方式主要示出“贝司”部件的节奏模式记录。不过,实际上在节奏模式表格中还描述了与多种类型的演奏部件(比如和弦、乐句、低音鼓、小鼓、踩镲和钹)相对应的节奏模式记录,如图5部分地示出的那样。
图6示出了风格表格的一个示例。在存在多个不同类型的自动伴奏的情况下,术语“风格”不仅标识各个自动伴奏类型,而且唯一地标识相同类型的自动伴奏的每一个。在风格表格中存储了多个风格记录,每个风格记录按风格来将构成自动伴奏的各个演奏部件的信息相互关联。图6示出其音乐流派名称为“爵士”的多个风格记录。每个风格记录包括多个项目,比如“风格ID”、“流派名称”、“风格名称”、“基调”、“BPM(每分钟的节拍)”、“贝司节奏模式ID”、“和弦节奏模式ID”、“乐句节奏模式ID”、“低音鼓节奏模式ID”、“小鼓节奏模式ID”、“踩镲节奏模式ID”和“钹节奏模式ID”。“风格ID”是唯一标识风格记录的ID,“流派名称”指示风格记录所属的音乐流派,“风格名称”是唯一标识风格记录的名称,“基调”指示风格记录的音乐基调,并且“BPM”指示要对基于风格记录的音符进行再现所用的拍速。
在每个风格记录中,以与所有前述演奏部件一对一相关联的方式来存储特定部件的节奏模式。在图6所示的示例中,风格ID“0001”的风格记录具有作为“贝司节奏模式ID”的值“0001”,其表明在节奏模式表格中,部件ID为“01”(贝司)且节奏模式ID为“0001”以及其节奏模式数据为“WoodBasslRhythm.txt”的节奏模式记录与其风格ID为“0001”的风格记录相互关联。在每个风格记录中,对除了贝司部件以外的其他演奏部件的节奏模式也描述了相似的关联。
由于自动伴奏DB 221是以前述方式来构造的,因此用户可以执行以下搜索。即,一旦用户通过操作与节奏输入装置10上的给定演奏部件相对应的任何演奏控件或以给定操作风格来输入了节奏模式,则信息处理装置20基于与操作的演奏控件或操作风格相关联的演奏部件以及输入节奏模式来从节奏模式表格中识别至少一个节奏模式。随后,信息处理装置20基于识别的节奏模式记录的部件ID和节奏模式ID来搜索风格表格,以提取包括了该识别的节奏模式记录在内的一个或多个风格记录以作为其演奏部件之一,并在显示部分24上显示所提取的一个或多个风格记录。然后,一旦用户选择了所显示的风格记录中的期望的一个,则借助于声音输出部分26将基于所选的风格记录的乐音数据组(即自动伴奏数据组)可听地输出为声音或乐音。即,通过输入期望的搜索目标节奏模式(乐音生成模式)作为与搜索目标演奏部件相关联的查询模式(搜索查询模式),用户可以通过用户的直观操作来容易地输入搜索查询,并且得到符合或匹配用户感觉或意愿的期望的搜出结果(自动伴奏)。
图7是示出上述信息处理装置20的功能配置的框图。控制部分21执行小节线时钟输出部分211、输入节奏模式存储部分212、部件识别部分213、节奏模式搜索部分214、搜索信息处理部分215和再现控制部分216的各个功能。尽管下文将各种处理描述为由上述各种部分来执行,然而实际上执行处理的主要部件是控制部分21。在下面的描述中,术语“ON-设定”表明节奏输入装置10的输入状态已从关闭(OFF)切换或改变为打开(ON)。例如,术语“ON-设定”表明操作板已被敲击(如果操作板为节奏输入装置10的输入部件或手段)、键已被按下(如果键盘为节奏输入装置10的输入手段)、或者按钮已被按下(如果按钮为节奏输入装置10的输入手段)。此外,在下面的描述中,术语“ON-设定时刻”指示节奏输入装置10的输入状态已从OFF改变为ON的时间点。换句话说,“ON-设定时刻”指示在节奏输入装置10中已经出现(或已经产生)触发数据的时间点。此外,在下面的描述中,“ON-设定信息”是在ON-设定时刻从节奏输入装置10输入到信息处理装置20的信息。除了上述触发数据,“ON-设定信息”还包括键盘的音符编号、通道信息等。
小节线时钟输出部分211每隔几十个毫秒(msec)向输入节奏模式存储部分212输出一次表示当前时刻在进程时间轴上于小节中所处的位置的数据,以作为时钟信号(下文中称为“小节线时钟信号”)。即,假设一个小节的长度被归一化为值“1”,则小节线时钟信号取介于“0”到“1”范围内的值。小节线时钟输出部分211基于由用户经由操作部分25所指定的BPM来产生这样的小节线时钟信号。随后,基于这种小节线时钟信号,输入节奏模式存储部分212按每个小节向RAM中存储出现触发数据的时间点(即On-设定时刻)。按每个小节如此存入RAM中的一系列On-设定时刻构成了输入节奏模式(即搜索查询模式)。由于存入RAM中的On-设定时刻中每一个都基于小节线时钟信号,所以其与小节线时钟信号一样取介于“0”到“1”的范围内的值。即,小节线时钟输出部分211是时间过去或时间流逝通知部分的一个示例,其不仅用于使预定时间长度的时间段(在该情况下为一个小节)内的时间过去,而且用于通知或告知用户预定时间段内时间的过去或流逝。小节线时钟输出部分211、再现控制部分216和声音输出部分26一起构成了通知部分,其向用户通知拍速,用以协助用户输入搜索查询模式。另外,输入节奏模式存储部分212是获取部分的一个示例,其用于获取在小节线时钟输出部分211使预定长度的时间段(在该情况下为一个小节)内的时间流逝的同时(即,在小节线时钟输出部分211使预定长度的时间段前进的同时)已经由用户针对指定的演奏部件(搜索目标部件)而输入的、表示或代表了各个音符的一系列产生时刻(ON-设定时刻)的节奏模式。由小节线时钟输出部分211使其前进的预定长度的时间段可以重复,或者不需要重复。作为替代,可以将从外部源输入到信息处理装置20的小节线时钟信号用作上述小节线时钟信号。
此外,必须从信息处理装置20将小节线起始的时间点反馈给用户,以便用户能够按小节准确输入节奏模式。为此,仅仅需要通过信息处理装置20在每个小节和/或节拍时产生声音或光来向用户可视地或可听地指示小节线的位置,例如节拍器之类。作为替代,再现控制部分216可以根据小节线时钟信号对已被预先添加了每个小节线位置的伴奏声源进行再现。在这种情况下,用户根据由用户从再现的伴奏声源感觉到的小节线来输入节奏模式。
部件识别部分213基于从节奏输入装置10输入的ON-设定信息(具体地为MIDI信息)和包括在自动伴奏DB 221中的部件表格来确定用户已经操作了哪个演奏控件,即,构成乐音数据组的多个演奏部件中哪一个被用户指定用于节奏模式输入。更具体地说,如果接收的MIDI信息表示音符编号,则部件识别部分213将接收的音符编号与部件表格的描述内容相比较,从而确定用户的操作是在贝司乐音输入键盘范围11上还是在旋律音输入键盘范围12上执行的。当部件识别部分213确定已经在旋律音输入键盘范围12上执行了用户的操作时,其基于用户的操作风格来进一步确定用户已经指定了“和弦”和“乐句”部件中的哪一个。更具体地说,如果在预定时间段(例如100ms)之内接收的MIDI信息中包含了多个音符编号,则部件识别部分213确定用户的操作风格是操纵多个演奏控件的风格,并从而识别出用户已指定“和弦”部件。相反,如果在预定时间段之内接收的MIDI信息中仅包含了一个音符编号,则部件识别部分213确定用户的操作风格是操纵单个演奏控件的风格,并从而识别出用户已指定“乐句”部件。此外,如果接收的MIDI信息是通道信息,则部件识别部分213将接收的通道信息与部件表格的描述内容相比较,从而确定用户的操作是在低音鼓输入操作板14a、小鼓输入操作板14b、踩镲输入操作板14c和钹输入操作板14d中的哪一个上执行的。部件识别部分213向节奏模式搜索部分214输出与识别的演奏部件对应的部件ID。注意,部件识别部分213不仅可以识别一个演奏部件而且可以识别多个演奏部件来作为搜索目标或搜索对象演奏部件。
节奏模式搜索部分214基于RAM中存储的输入节奏模式(查询模式)来搜索自动伴奏DB 221的节奏模式表格,并且其不仅将包括对输入节奏模式具有高相似度的节奏模式数据在内的节奏模式记录存储在RAM中,而且将这样的节奏模式记录输出到搜索信息处理部分215。即,节奏模式搜索部分214在存储装置(自动伴奏DB 221)中搜索不仅与指定的或识别的演奏部件匹配而且与查询模式匹配的节奏模式。搜索信息处理部分215基于每个输入节奏记录中包括的部件ID和节奏模式ID来搜索风格表格,并且将搜出的风格记录存储到RAM中。搜出风格记录每一个除了包括表示伴奏声源本身的数据以外还包括关于伴奏声源的信息,比如“流派名称”、“风格名称”、“基调”和“BPM”。搜索信息处理部分215在显示部分24上显示这种关于伴奏声源的信息。搜索信息处理部分215还可以基于用户经由操作部分25指定的“BPM”和“乐器类型ID”来对搜出的风格记录执行缩窄搜索。即,节奏模式搜索部分214和搜索信息处理部分215是搜索部分的一个示例,其用于搜索与满足以下条件的节奏模式相关联的乐音数据组:该节奏模式与作为针对识别出的演奏部件的获取部分的所述输入节奏模式存储部分212所获得的乐音模式或节奏模式呈现出高相似度。再现控制部分216将搜出的风格记录设置为再现的对象,并基于该风格记录与小节线时钟信号同步地向声音输出部分26提供乐音数据组。随后,声音输出部分26基于该乐音数据组可听地产生乐音。
由于节奏模式数据是MIDI格式的,因此用户可以经由操作部分25来改变BPM(每分钟的节拍),BPM被乐音数据组包括以作为数据的一部分,并且表示再现该乐音数据组要采用的拍速。在该情况下,再现控制部分216基于风格记录采用改变的BPM来与小节线时钟信号同步地向声音输出部分26提供乐音数据组。此外,如果再现控制部分216具有无需改变音高就能改变拍速的时间拉伸(time-stretch)功能,那么即使在节奏模式数据是声音文件格式的音频数据(比如WAVE(RIFF波形音频格式)或mp3(音频动态压缩第3层))的情况下,用户也能改变再现乐音数据组要采用的BPM(每分钟的节拍)。从前文可明了,信息处理装置20是乐音数据处理装置的一个示例,其将如下的有关自动伴奏的乐音数据组输出作为搜出结果:该有关自动伴奏的乐音数据组具有由满足与针对用户指定的演奏部件的用户想要的节奏模式具有高相似度这一预定条件的节奏模式所构成的乐句。
<行为>
接下来将参照图8至图10描述由节奏模式搜索部分214和搜索信息处理部分215执行的用于在搜索功能打开的同时基于输入节奏模式从风格表格中检测出特定风格记录的一系列操作。
图8是示出由节奏模式搜索部分214和搜索信息处理部分215执行的搜索处理的一个示例操作序列。在下一步骤S1,节奏模式搜索部分214使用输入节奏模式表格中描述的所有节奏模式来按节奏类别计算ON-设定时刻间隔的分布。在每个节奏模式记录的节奏模式数据中包含了以一个小节长度作为“1”而进行归一化之后的各个组件音符的乐音或声音产生起始时刻,即ON-设定时刻。ON-设定时刻间隔每一个都是时间轴上处于一对相邻ON-设定时刻之间的间隔,并且由处于从“0”至“1”的范围内的数值来表示。此外,假设一个小节被分成48个相等时间片段,则ON-设定时刻间隔的分布可以由与各个时间片段相对应的ON-设定时刻间隔的数量来表示。将一个小节分成48个相等时间片段的原因在于,如果在每小节四拍节奏的前提下将每个节拍分成12个相等时间片段,那么就能够实现适合于在多种不同节奏类别(比如八分、八分三连音和十六分)当中进行识别的分辨率。这里,“分辨率”是通过能够以诸如音序器或本实施例中采用的应用程序之类的音序软件进行表达的最短长度的音符来确定的。在本实施例中,分辨率是每小节“48”,因此一个四分音符可分成12个片段。
在下面关于输入节奏模式的描述中,术语“ON-设定时刻间隔”也使用与用于节奏模式记录中相同的含义。即,在输入节奏模式中,在时间轴上一对相邻ON-设定时刻之间的间隔每一个都表示ON-设定时刻间隔。将在上面步骤S1中按每个节奏类别计算的ON-设定时刻间隔的分布与在后面描述的步骤S3中计算的输入节奏模式中的ON-设定时刻间隔的分布相比较。在该流程图的开始就在步骤S1中计算ON-设定时刻间隔分布的原因在于,在步骤S1计算的ON-设定时刻间隔分布是恒定的,因此只要算出来,就无需再次计算。因此,在信息处理装置20上电之时或者在搜索处理启动之时就可以执行步骤S1的ON-设定时刻间隔分布的计算。另外,可以在ROM中预存表示在步骤S1计算的ON-设定时刻间隔分布的数据,从而控制部分21在搜索处理启动之时读出该数据。
下面使用ON-设定时刻的具体值来描述在步骤S1如何计算ON-设定时刻间隔的分布。这里假设在节奏模式记录的节奏模式数据中描述了如下面项目(i)中指示的八分节奏模式。
(i)0,0.25,0.375,0.5,0.625,0.75和0.875
基于上面项目(i)中指示的输入节奏模式,节奏模式搜索部分214计算如下面项目(ii)中指示的ON-设定时刻间隔。
(ii)0.25,0.125,0.125,0.125,0.125和0.125
然后,节奏模式搜索部分214通过将上面在(ii)中计算的每个ON-设定时刻间隔乘以值“48”、随后将“0.5”加到得到的乘积上,并随后将得到的和的小数点之后的数字向下舍入(即“量化处理”),来计算如下面的项目(iii)中指示的一组值。
(iii)12,6,6,6,6和6
这里,“量化处理”指的是节奏模式搜索部分214根据分辨率校正每个ON-设定时刻间隔。执行量化处理的原因如下。在节奏模式表格中的节奏模式数据中描述的声音产生时刻是基于分辨率的(在该情况中为“48”)。因此,如果使用ON-设定时刻间隔来搜索节奏模式表格,则搜索精度会降低,除非要用于搜索的ON-设定时刻间隔也是基于分辨率的。由于该原因,节奏模式搜索部分214对上面项目(ii)中指示的每个ON-设定时刻间隔执行量化处理。
考虑下面在各个节奏模式记录的节奏模式数据中描述了两个八分节奏模式、两个十六分节奏模式和两个八分三连音节奏模式的情况:
·八分节奏类别
(A)0,0.25,0.375,0.5,0.625,0.75,和0.875,以及
(B)0,0.121,0.252,0.37,0.51,0.625,0.749和0.876;
·十六分节奏类别
(C)0,0.125,0.1875,0.251,0.374,0.4325,0.5,0.625,0.6875,0.75,0.876和0.9325,以及
(D)0,0.625,0.125,0.1875,0.251,0.3125,0.375,0.4325,0.5,0.5625,0.625,0.6875,0.75,0.8125,0.875和0.9325;以及
·八分三连音节奏类别
(E)0,0.8333,0.1666,0.25,0.3333,0.4166,0.5,0.5833,0.6666,0.75,0.8333和0.91666,以及
(F)0,0.1666,0.25,0.333,0.4166,0.5,0.6666,0.75,0.8333和0.91666。
节奏模式搜索部分214针对上面(A)-(F)中指示的模式使用与前文类似的计算方式对每个节奏类别计算ON-设定时刻间隔的分布。图9A示出被分配了通过节奏模式搜索部分214针对各个节奏类别计算出的ON-设定时刻间隔分布的分布表格。
在步骤S1之后的步骤S2,节奏模式搜索部分214根据从部件识别部分213输入的部件ID和存储在RAM中的乐器类型ID来搜索节奏模式表格。注意,乐器类型ID是通过用户之前经由操作部分25指定乐器类型而存储在RAM中的ID。不过,乐器类型的指定并非绝对必要的;如果没有指定乐器类型,则节奏模式搜索部分214仅根据输入部件ID来搜索节奏模式表格。在后续处理中,节奏模式搜索部分214使用在步骤S2搜出的节奏模式记录作为处理的对象。
如上所述,输入节奏模式包括以一个小节的长度作为值“1”而进行了归一化的ON-设定时刻。在步骤S2之后的步骤S3,节奏模式搜索部分214使用与在步骤S1中相同的计算方式来计算输入节奏模式中的ON-设定时刻间隔的分布。对于具有如上面项目(i)中指示的节奏模式的输入节奏模式,ON-设定时刻被计算为如项目(ii)中所示,随后,计算出如项目(iii)中所示的一组数值。图9B示出被分配了通过节奏模式搜索部分214针对输入节奏类别计算出的ON-设定时刻间隔分布的分布表格。
下面参照图9A至图9C中示出的分布表格进一步描述ON-设定时刻间隔的分布。图9B是在输入节奏模式中的ON-设定时刻间隔的分布表格。在图9B中,水平轴表示在将一个小节分成48个时间片段的情况下的时刻间隔,而垂直轴表示量化后的ON-设定时刻间隔的数量的比值(“数量比”)。另外,在图9B中,基于上面项目(iii)中指示的输入节奏模式的这组数值被分配到分布表格。通过节奏模式搜索部分214将数量比归一化,以使得数量比之和成为“1”(一)。从图9B可以看出,分布的峰值处在时刻间隔“6”处,其为量化后的ON-设定时刻间隔的项目(iii)的数值组中最大的数。
在步骤S3之后的步骤S4,节奏模式搜索部分214通过使用图9A和图9B的分布表格来计算表示了如下相似度的各距离(以下也称为“相似度距离”),所述相似度是基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔分布与基于输入节奏模式的ON-设定时刻间隔分布之间的相似度。图9C示出对基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔分布(图9A)与基于输入节奏模式的ON-设定时刻间隔分布(图9B)之间的差异进行表示的分布表格。可以以下述方式来执行步骤S4的相似度距离计算。首先,针对在基于节奏模式表格中描述的各个节奏类别的节奏模式的ON-设定时刻间隔的分布表格以及基于输入节奏模式的ON-设定时刻间隔的分布表格两者中的每个相同时刻间隔,节奏模式搜索部分214计算这两个表格之间的数量比中的各差异的绝对值。随后,针对每个节奏类别,节奏模式搜索部分214计算通过将针对各个时刻间隔计算出的绝对值相加而得到的和的平方根。如此计算出的平方根的值表示了上述相似度距离。较小的相似度距离的值表示较高相似度,而较大的相似度距离的值表示较低的相似度。在图9C所示的示例中,八分节奏类别呈现出在基于图9A和图9B的分布表格的数量比中最小的差异,这表明在分布表格中所示的八分、十六分和八分三连音节奏类别当中,八分节奏类别与输入节奏模式具有最小相似度距离。
在步骤S4之后的步骤S5,节奏模式搜索部分214确定在节奏模式表格中描述的节奏类别当中呈现最小相似度距离的一个节奏类别是输入节奏模式落入或属于的节奏类别。更具体地,在该步骤,节奏模式搜索部分214识别出输入节奏模式落入或属于八分节奏类别。即,通过上面步骤S2至S5的操作,节奏模式搜索部分214识别出输入节奏模式最可能落入其中的一个特定节奏类别。
随后,在步骤S6,节奏模式搜索部分214计算节奏模式表格中描述的所有节奏模式与输入节奏模式之间的差异的水平,以便从节奏模式表格中描述的节奏模式当中识别出与输入节奏模式呈现出最高相似度的节奏模式。这里,“差异的水平”表示输入节奏模式中的各个ON-设定时刻间隔与节奏模式表格中描述的各个节奏模式的各个ON-设定时刻间隔相互距离多远。也就是说,在输入节奏模式与节奏模式表格中描述的任一个节奏模式之间的较小的差异水平表示输入节奏模式与节奏模式表格中描述的这个节奏模式之间具有较高的相似度。
即,节奏模式搜索部分214在直至步骤S5的操作中识别与输入节奏模式最为匹配的节奏类别,而在步骤S6的操作中将属于所有节奏类别的节奏模式记录都作为计算对象进行处置。这么做的原因如下。在各节奏模式记录中包括的节奏模式数据当中,可能存在难以明确地确定其属于哪一个节奏类别的节奏模式数据,比如其中在同一个小节中存在数量基本相同的八分ON-设定时刻间隔和十六分On-设定时刻间隔这样的节奏模式数据。在这种情况下,通过如上所述的那样节奏模式搜索部分214在步骤S6中将属于所有节奏类别的乐句记录都作为计算对象进行处置,将会有利地提高准确检测出用户想要的节奏模式的可能性。
下面参照图10更详细地描述步骤S6的操作。图10是说明节奏模式之间的差异的计算的示意性示图。如图10所示,输入节奏模式由“A”图示,在节奏模式记录中描述的节奏模式由“B”图示。输入节奏模式A与节奏模式B之间的差异水平通过如下方式来计算。
(1)节奏模式搜索部分214计算输入节奏模式A的各ON-设定时刻与节奏模式B的最接近于输入节奏模式A的ON-设定时刻中相应的那些时刻的各ON-设定时刻之间的差异的绝对值(图10的(1));换言之,基于输入节奏模式A的各个ON-设定时刻或者使用输入节奏模式A的ON-设定时刻作为计算基础来计算差异的绝对值。
(2)然后,节奏模式搜索部分214计算在上面(1)中计算的绝对值的积分值。
(3)然后,节奏模式搜索部分214计算节奏模式B的各个ON-设定时刻与输入节奏模式A的最接近于节奏模式B的ON-设定时刻中相应的那些时刻的各ON-设定时刻之间的差异的绝对值(图10的(3)),换言之,基于节奏模式B的各个ON-设定时刻或者使用节奏模式B的ON-设定时刻作为计算基础来计算差异的绝对值。
(4)节奏模式搜索部分214计算在上面(3)中计算的绝对值的积分值。
(5)然后,节奏模式搜索部分214计算在上面(2)中计算的积分值与在上面(4)中计算的积分值之间的平均值,作为输入节奏模式A与节奏模式B之间的差。
在本实施例中,没有准备足够数量的节奏模式,如图10(3)中所示,节奏模式搜索部分214在积分值的计算中执行避免使用比参考时刻间隔大的每个ON-设定时刻间隔差的绝对值(在所示示例中为“0.125”,因为这里的节奏类别为“八分”)的操作。另一方面,在可以准备足够数量的节奏模式的情况下,节奏模式搜索部分214不必进行上述的避免使用比参考时刻间隔大的每个ON-设定时刻间隔差的绝对值的操作。节奏模式搜索部分214针对节奏模式表格中包括的所有节奏模式记录中的节奏模式来执行上述计算(1)至(5)。
接下来,在步骤S7,节奏模式搜索部分214将在上面步骤S4中对每个节奏类别计算的相似度距离乘以在步骤S6中计算的差,从而针对节奏模式表格中包括的、且具有与指定或识别的演奏部件相匹配的演奏部件的部件ID的所有节奏模式记录来从输入节奏模式计算出距离。下面是说明步骤S7的操作的数学表达式,其中“A”表示输入节奏模式,“B”表示第N个节奏模式记录中的节奏模式。注意,“与指定或识别的演奏部件相匹配的演奏部件”不限于与由用户输入作为搜索目标的一个或多个演奏部件相匹配的一个或多个演奏部件,而可以是与由用户输入作为搜索对象或搜索目标的至少一个演奏部件相似的一个或多个演奏部件。
节奏模式A与节奏模式B之间的距离=(节奏模式A与节奏模式B所属的节奏类别之间的相似度距离)×(节奏模式A与B之间的差异)
注意,较小的节奏模式A与B之间的距离表明节奏模式B具有与输入节奏模式A较高的相似度。即,节奏模式A与B之间的距离表示节奏模式A与B之间的相似度。在以下描述中,有时将会把节奏模式之间的小距离称为“节奏模式之间的高相似度”或类似表达。不过,注意在前述的距离计算中,执行下面的操作以使得从在上面步骤S5中已被确定为输入节奏模式所属的类别之内输出搜出结果。即,节奏模式搜索部分214确定在上面的步骤S5中识别出的节奏类别与节奏模式B所属的节奏类别是否彼此相同,并且,如果不相同,则将一个预定常数(例如0.5)加到通过上述数学表达式计算出的距离上。通过添加这种预定常数(例如0.5),对于属于与在步骤S5中识别出的节奏类别不相同的节奏类别的每个节奏模式记录而言,其节奏模式距离将会变得更大甚至非常大,因而可以更容易地从在步骤S5中被确定为输入节奏模式所属的节奏类别之内输出搜出结果。
随后在步骤S8,节奏模式搜索部分214以与输入节奏模式的距离的升序来将具有与输入节奏模式之间为小距离的、具有节奏模式数据的预定数量的节奏模式记录输出为搜出结果,从而将输出的节奏模式记录存储到RAM中。“预定数量”可以预先作为参数存储在存储部分22中,并且可以由用户使用操作部分25进行改变。然后,在步骤S9中,搜索信息处理部分215基于如上所述通过步骤S8存储在RAM中的节奏模式记录的节奏模式ID和部件ID来搜索风格表格,并将通过搜索识别出的风格记录存储在RAM中作为搜出结果。例如,如果在步骤S8将部件ID为“2”(和弦)以及节奏模式ID为“0004”的节奏模式记录存储在RAM中,那么搜索信息处理部分215从风格表格中搜出其和弦节奏模式ID为“0004”的风格记录,并将搜出的风格记录存储在RAM中。
图11A至图11C是示出用于自动伴奏的搜出结果的列表的示图。更具体地说,图11A示出在已被搜索信息处理部分215基于用户经由和弦乐音输入键盘范围12输入的节奏模式而输出为搜出结果之后被显示在显示部分24上的风格记录的列表。在图11A至图11C中,参考项目“相似度”表示输入节奏模式与每个搜出风格记录的节奏模式之间的距离。即,较小的“相似度”值表示与输入节奏模式较高的相似度。在图11A中,以相似度值(即在步骤S7计算出的节奏模式之间的距离)的升序,也就是与输入节奏模式的相似度的降序来显示风格记录。在该情况下,用户可以在使用项目“基调”、“流派”和“BPM”中的至少任意一个对搜出结果进行筛选之后使搜出结果被显示。一旦用户选择了图11A所示示例中的期望的一个风格记录,信息处理装置20就以与用户输入节奏模式时相同的BPM(以下称为“输入BPM”)经由声音输出部分26来输出基于所选风格记录的乐音。在显示搜出结果时,不必显示如图11A至图11C所示的所有参考项目(“相似度”、“基调”、“流派”和“BPM”),并且可以仅显示一些参考项目,或者不显示参考项目。类似地,在显示进行了筛选之后的搜出结果时,不必显示所有参考项目(“相似度”、“基调”、“流派”和“BPM”),并且可以仅显示一些参考项目,或者不显示参考项目。
控制部分21具有用于仅将每一个都具有与输入BPM接近的BPM的风格记录输出为搜出结果的筛选功能,并且用户可以经由操作部分25按自己的期望来打开或关闭筛选功能。由于每个风格记录都具有“BPM”,因此控制部分21在筛选功能打开时仅将每一个都具有例如为输入BPM的0.7至1.4倍的BPM的风格记录显示为搜出结果。注意,应用于输入BPM的系数值0.7至1.4仅为示例性的,还可以是其他值。
控制部分21具有筛选功能的原因如下。控制部分21以与输入BPM相同的BPM来提供基于风格记录的乐音数据组。如果控制部分21以远远不同于乐音数据组的原始BPM的BPM来提供基于风格记录的乐音数据组,那么基于该乐音数据组的乐音在可听地由声音输出部分26输出时会不期望地给用户一种不舒服的感觉。例如,假设用户以BMP“240”的拍速输入节奏模式并且由针对具有前述节奏模式的乐音数据组而被获取为搜索结果的乐音数据组所表示的原始BPM是“60”的情况。在该情况下,基于搜出的乐音数据组的乐音被声音输出部分26以四倍于原始BPM的BPM输出,即,采用了四倍于原始BPM的BPM以快速向前的方式对基于乐音数据组的乐音进行了再现,其结果是将会带给用户不舒服的感觉。为避免这种不便,本实施例中的控制部分21具有筛选功能。
图11B示出用户已经从图11A所示的状态打开了筛选功能的状态。在图11B中,控制部分21正使用上述系数0.7至1.4执行筛选。在图11B所示的示例中,由于输入BPM为“100”,因此每一个都具有处于70至140范围内的BPM的风格数据组被显示为筛选结果。通过该方式,用户可以获得每个都具有与输入BPM接近的BPM的风格数据组作为搜出结果,从而利用该搜出结果用户可以具有更满意的感觉。
此外,用户可以通过首先指定一个演奏部件以搜索每个具有与输入节奏模式接近的节奏模式的风格数据组(第一搜索)以及随后指定另一个演奏部件并输入节奏模式以再次搜索风格数据组(第二搜索)来得到从第一搜出风格数据缩窄了的第二搜出结果。图11C示出在正在显示图11A的搜出结果的状态下被显示为用户将踩镲部件指定为演奏部件并输入节奏模式的结果的内容。另外,在图11C中,对拍子筛选器(time filter)303输入的音乐拍子信息为“4/4”的风格数据组被显示为搜出结果。图11C中的“相似度”是通过将对象或目标演奏部件为“和弦”的情况下的相似度与目标演奏部件为“踩镲”的情况下的相似度相加而得到的值。尽管图11示出可以使用如由项目“第一搜索部件”和“第二搜索部件”表示的两个演奏部件来执行搜索,然而能够被指定为搜索目的的演奏部件的数量并不限于此。另外,如果用户在指定第一演奏部件(第一搜索部件)的第一搜索之后指定与第一指定演奏部件(第一搜索部件)不相同的不同演奏部件(第二搜索部件)并随后输入节奏模式,控制部分21可以不管使用(指定)第一搜索部件的搜出结果而仅输出使用(指定)第二搜索部件的搜出结果(仅使用第二搜索部件得到的这种搜出结果将被称为“覆写搜索”)。用户可以经由信息处理装置20的操作部分25来进行缩窄搜索与覆写搜索之间的切换。
前文已经描述了由节奏模式搜索部分214和搜索信息处理部分215执行的用于在搜索功能为打开时基于用户输入的节奏模式从风格表格中将特定风格记录输出作为搜出结果的处理的操作序列。
以前述方式构造的信息处理装置20可以针对用户指定的演奏部件来搜索具有由如下节奏模式(乐音生成模式)构成的乐句的自动伴奏数据组,所述节奏模式(乐音生成模式)满足与用户想要的节奏模式(乐音生成模式)相似度的预定条件。此时,用户在对与多个演奏控件相关联的多个演奏部件中的期望的一个进行指定之时或之后输入节奏模式(查询模式)。因此,只要用户想出一个特定演奏部件的节奏模式(乐音生成模式),用户就能通过输入该特定演奏部件的节奏模式而执行搜索。另外,由于用户仅需要在指定演奏部件之时或之后输入节奏模式(查询模式),所以用户能够直观且有效地搜索自动伴奏数据组。
<改型>
本发明的上述优选实施例可以做出如下修改,必要时下述的各种改型也可以结合。
<改型1>
根据上述优选实施例,节奏模式搜索部分214以这样的方式来构造:一旦用户在顺序地指定了多个不同演奏部件之后输入节奏模式,则节奏模式搜索部分214首先针对第一指定的演奏部件基于该节奏模式搜索风格记录(第一搜索),随后针对与第一指定演奏部件不同的第二指定演奏部件基于该节奏模式来执行缩窄搜索(第二搜索)。然而,在已经指定多个演奏部件时采用的搜索方案不限于上述方案。此外,尽管上述处理是基于以逐部件方式顺序地执行用户的演奏操作这一假设,然而当用户在同时指定了多个不同演奏部件之后已执行了演奏操作时可以执行如下处理。即,在这种情况下,节奏模式搜索部分214计算具有指定演奏部件的部件ID的每个节奏模式记录对每个用户指定演奏部件的输入节奏模式的相似度。即,对于每个指定的演奏部件,节奏模式搜索部分214计算具有指定的演奏部件的部件ID的各个节奏模式记录对输入节奏模式的相似度。然后,节奏模式搜索部分214针对与所指定的演奏部件的节奏模式记录相关联的每个风格记录来把分别针对这些节奏模式记录计算出的相似度加到一起。然后,显示部分24从具有最高相似度(即最小的相似度值)的风格记录开始按相加后的相似度的预定次序来显示风格记录。例如,当用户在同时执行了对低音鼓和小鼓部件的演奏操作之后已经输入节奏模式时,节奏模式搜索部分214计算对低音鼓的相似度和对小鼓的相似度,随后针对低音鼓和小鼓部件共同的各风格记录或至少具有低音鼓和小鼓部件两者的各风格记录的每一个来将针对低音鼓以及针对小鼓计算出的相似度加到一起。通过这种方式,用户能够通过同时指定多个演奏部件来搜出具有由满足对用户想要的节奏模式呈现高相似度这一条件的节奏模式构成的乐句的自动伴奏数据组。
<改型2>
尽管上述优选实施例被构成为如下方式,即响应于用户在指定期望演奏部件之后输入节奏模式,信息处理装置20输出自动伴奏数据组作为搜出结果,然而本发明不限于此,并且可以响应于用户在指定期望演奏部件之后输入旋律模式而执行搜索。在这种情况下,自动伴奏DB 211还包含旋律模式表格。图12和图13是示出在改型2中采用的自动伴奏DB的示例内容的示意性示图,其中图12示出在自动伴奏DB中包含旋律模式表格。旋律模式表格包括多个项目“部件ID”、“乐器类型ID”、“旋律模式ID”和“旋律模式数据”。“部件ID”和“乐器类型ID”与上面参照优选实施例描述的相同。“旋律模式ID”是唯一地标识旋律模式记录的标识符,并且例如具有四位数的形式。“旋律模式数据”是其中记录有构成一小节的乐句中的各个组件音符的一系列音高和持续时间(时间或时刻序列变化)的文件;例如,其为描述了一系列组件音符的音高和持续时间的文本文件。图13示出在改型2中采用的风格表格。在图13所示的示例中,每个风格记录不仅包括各个演奏部件的节奏模式ID,而且包括各个演奏部件的旋律模式ID。信息处理装置20可以使用任一个公知方法来搜索旋律模式。例如,当用户已输入了“C-D-E”的和弦序列时,信息处理装置20的控制部分21以相关数值“0-2-4”来将具有表示了输入和弦序列中的音高进展的旋律模式数据的旋律模式记录输出作为搜出结果。随后,控制部分21在显示部分24上显示与搜出的旋律模式记录相关联的风格记录。
例如,当用户已经输入了指定乐句部件的基于单音符的旋律模式“D-D-E-G”时,控制部分21产生表示该输入旋律模式的MIDI信息。MIDI信息包括构成旋律模式的各个组件音符的音高和持续时间。控制部分21将具有与产生的MIDI信息相同或相似的旋律模式数据的旋律模式记录输出作为搜出结果。然后,控制部分21在显示部分24上显示与搜出的旋律模式记录相关联的风格记录。用户可以经由信息处理装置20的操作部分25来在被用于本改型中的基于旋律模式的搜索与被用于上述优选实施例中的基于节奏模式的搜索之间进行切换。作为另一改型,用户输入的查询模式可以是对构成旋律模式的各个组件音符的音高和产生次序进行规定的模式,即不详细规定旋律模式的各个音符的持续时间而仅粗略规定旋律进展的一种模式。
<改型3>
信息处理装置20可以搜索包括了其音色与输入节奏模式的音色相同或具有高相似度的乐句的自动伴奏数据组。在这种情况下,将另一项目“音色ID”添加到节奏模式表格的每个节奏模式记录中。当经由任一个演奏控件输入节奏模式时,用户对音色进行指定。一旦用户执行演奏操作,在演奏操作之时指定的音色的ID就被输入到信息处理装置20。随后,信息处理装置20将输入音色ID的音色与节奏模式表格的每个节奏模式记录中的音色ID的音色进行比较,从而从比较的结果当中识别出相似度高于预定阈值的节奏模式记录。这里,音色比较可以通过任一个公知方法执行,例如,通过比较各个乐音的波形的谱。然后,信息处理装置20基于所别的节奏模式的节奏模式ID和部件ID来搜索风格表格,从而识别出一个风格记录。通过这种方式,用户能够得到对于指定的演奏部件不仅在节奏模式上而且在音色上都与用户的输入相似的自动伴奏数据组。
<改型4>
尽管上面已经关于将乐音数据描述为自动伴奏DB中的MIDI信息的情况来描述了优选实施例,然而还可以在自动伴奏DB中描述包含乐音数据本身的音频文件的存储位置。在该情况下,音频文件每一个都是声音文件格式,比如WAVE(RIFF波形音频格式)或mp3(音频动态压缩第3层),并在节奏模式表格的每个节奏模式记录中描述这样的音频文件的文件路径。一旦用户从搜出结果当中选择一个给定风格记录作为再现对象,就以相互同步的方式来再现风格记录中的各个演奏部件的音频文件。通过该方式,用户能够得到比使用MIDI信息的情况具有更好音质的自动伴奏。
<改型5>
信息处理装置20可以配备随机访问再现功能,用于响应于用户对操作部分25的操作或者对节奏输入装置10上提供的诸如音量调节器、旋钮、转盘、按钮之类的控件的操作来从一小节的开头再现自动伴奏数据。在该情况下,一旦用户执行了上述操作,再现控制部分216就执行用于从小节的开头再现自动伴奏数据的控制。该随机访问再现功能被用在当用户想要检查哪里是自动伴奏乐音的开头或者想要仅将一部分自动伴奏乐音设置为重复再现的对象的时候。
<改型6>
在一些自动伴奏数据组中,波形幅度(功率)在组件音符附近接近于值“0”处没有结束,在该情况下在已可听地产生基于组件音符的乐音之后会出现削波噪声(clip noise)。为避免这种不便,再现控制部分216可以具有在接近组件音符的开头或结尾处以预定范围自动渐强或渐弱的功能。这里,用户可以经由操作部分25或节奏输入装置10上提供的一些控件来选择是应用渐强还是应用渐弱的功能。
图14是示出对自动伴奏数据组的各个组件音符应用了渐弱的一个示例的示意性示图。如图14所示,对由标示为“渐弱”的箭头示出的部分应用了渐弱,从而在每个标有箭头的部分中的波形幅度逐渐减小以在相应的组件音符的结尾时刻处取得基本为零的幅度。按照用户的期望可以在从几毫秒至几十毫秒的范围之内调节应用了渐弱的时间段。用于应用渐弱的操作可以作为用户的演奏操作的预处理、作为实时处理、或者作为用户的演奏操作的后处理来执行。
<改型7>
由用户与自动伴奏一同执行的演奏可以被再现控制部分216记录,并且可以以声源循环素材中传统使用的文件格式来输出这样记录的内容。采用这种演奏记录功能,用户能够将由用户与自动伴奏一起执行的演奏结果获取为数据。
<改型8>
尽管优选实施例已被描述为涉及如下情况,其中节奏模式搜索部分214通过比较由用户的演奏操作输入的触发数据与存储在自动伴奏DB 221中的节奏模式数据来检测特定节奏模式记录,然而本发明不限于此。例如,节奏模式搜索部分214可以基于通过用户的演奏操作输入的触发数据和速度数据两者来搜索自动伴奏DB 221。在该情况下,如果存在具有相同节奏模式的两个节奏模式数据,则将与其中每个组件音符的击打强度更接近于通过用户演奏操作输入的速度数据的那个节奏模式数据相关联的风格记录检测为搜出结果。通过这种方式,在击打强度方面也接近于用户想象的自动伴奏数据组能够被输出作为搜出结果。
<改型9>
在上述优选实施例中计算节奏模式之间的距离的方式仅仅是说明性的,并且可以以不同于前述的方式来计算这种距离。例如,可以在识别了输入节奏模式所属的节奏类别之后并且仅使用属于相同节奏类别的节奏模式记录作为计算的对象来执行步骤S6的节奏模式差异计算和步骤S7的节奏模式距离计算,从而能够可靠地输出与输入节奏模式的节奏类别相匹配的节奏模式记录作为搜出结果。尽管这样修改后的配置相比优选实施例而言仅能实现较小的搜索精度,但由于其能够减小必须的计算量,因此,该改型不仅能够实现降低的信息处理装置20的负荷而且能够实现减少的对用户响应的时间。
<改型10>
另外,当搜索自动伴奏DB 221时,节奏模式搜索部分214在触发数据和速度数据之外还可以使用表示相同音符的可听产生所持续或延续的时间长度的持续时间数据。以通过从组件音符的OFF-设定时刻减去恰在该OFF-设定时刻之前的ON-设定时刻而计算得到的时间长度来表示每个组件音符的持续时间数据。具体地,在节奏输入装置10的输入手段为键盘的情况下,可以非常有效地使用持续时间数据,这是因为持续时间数据使得信息处理装置20能够明确地获取组件音符的OFF-设定时刻。在该情况下,将项目“持续时间模式数据”添加到图5的节奏模式表格中。持续时间模式数据是其中记录了构成一个小节的乐句中的各个组件音符的持续时间(可听的产生时间长度)的数据文件,比如文本文件。在这种情况下,可以将信息处理装置20构造为通过使用用户输入的一个小节的持续时间模式来搜索节奏模式表格,并且将具有与用户输入的持续时间模式最为相似(或最为接近)的持续时间模式数据的节奏模式记录从节奏模式表格中输出作为搜出结果。因此,即使存在多个具有相似节奏模式的节奏模式记录,信息处理装置20也能够从这些相似的节奏模式当中区分或识别出具有连奏、节奏模式断奏(跳跃感)之类的节奏模式,并输出识别的节奏模式作为搜出结果。
<改型11>
当部件识别部分213将要基于所接收的MIDI信息来识别演奏部件时,还可以使用以下参数。图15A和图15B是示出在改型11中采用的部件表格的示例内容的示图。在所示示例中,大于“45”的音符编号分配给“低音鼓”部件以及“和弦”和“乐句”部件,并且对部件表格添加附加项目“持续时间”。另外如图所示,一旦用户在一小节之内在预定时间段(例如100msec)中按下或操作了音符编号大于“45”的键盘范围中的多个键,则部件识别部分213在持续时间长时将用户指定的演奏部件识别为“和弦”部件,而在持续时间短时将用户指定的演奏部件识别为“低音鼓”部件。这里,持续时间是“长”还是“短”由部件识别部分213基于预定阈值来确定。
图15A示出的示例是基于用户对多个键的演奏操作在预定时间段(例如100msec)之内执行这样一种假设下的,这是因为,当用户像这样已经操作了多个键时,根据持续时间是长还是短来分配不同的演奏部件。不过,在当用户已操作单个键时根据持续时间是长还是短来分配不同演奏部件的情况下,用户对单个键的操作无需在预定时间段(例如100msec)内执行;这种用户对单个键的操作仅需在一个小节内执行。此外,当用户想要针对与“长”持续时间对应的演奏部件进行输入时,用户输入的节奏模式可能不利地变得比想要的更长,这是因为,由于阈值的设置,用户不得不以比期望更长的持续时间来输入节奏模式。为了避免这种不便从而使得用户能够在执行演奏操作时具有自然的感觉,对于操作者仅需预先按经验得出用于确定持续时间是“长”还是“短”的适当阈值。作为替代,如果用户已经以超过阈值的极长持续时间输入了节奏模式,则可以执行以下处理。例如,如果演奏部件为“和弦”,则控制部分21在和弦部件的节奏模式当中搜索包含了多个持续音并且与输入节奏模式接近的一个节奏模式。如果演奏部件为“乐句”,则控制部分21在乐句部件的节奏模式当中搜索包含了与由合成器生成的乐句之类相似的音高连续变化的单个持续音的乐句并且与输入节奏模式接近的一个节奏模式。另外,如果演奏部件为“小鼓”,则控制部分21在小鼓部件的节奏模式当中搜索击鼓节奏模式。通过这种方式,即使当用户已经以超过阈值的极长持续时间输入了节奏模式,该改型也能适当地搜索出相应的节奏模式,因而可以为用户提供更多变化的乐音搜索方法或方案。
在该情况下,可以与键盘结合使用弯音轮,作为用于在节奏输入装置10上输入查询模式的控件。例如,用户可以在持续按下键盘的给定键的同时经由弯音轮改变音高来输入弯音乐句模式(旋律模式)作为搜索查询模式。作为另一替代,用户可以利用X-Y操作板的分别用作时间轴和音高轴的X和Y轴以图形方式绘制离散的模式或连续的模式,来输入搜索查询模式。
另外,在图15B所示的示例中,大于“45”的音符编号被分配给“小鼓”部件以及“和弦”和“乐句”部件,并且对部件表格添加了附加项目“速度”。在该情况下,一旦用户在一小节之内按下或操作了键盘范围中音符编号大于“45”的单个键,则部件识别部分213在速度为弱时将用户指定的演奏部件识别为“乐句”部件,而在速度为强时将用户指定的演奏部件识别为“小鼓”部件。这里,速度是“强”还是“弱”可以由部件识别部分213基于预定阈值来确定,如对于持续时间的情况一样。还要注意的是,上述阈值可以预存在存储部分22中,并且可以由用户经由操作部分25进行改变。此外,与根据持续时间和速度的内容应当分配到哪个演奏部件有关的控件可以由用户经由操作部分25来作出改变,而不限于上文所述。因此,在该改型中,用户可以根据操作风格的差异(即,使用各种不同操作风格中的相应一个,比如演奏操作的持续时间或强度)来指定各种不同演奏部件中的任一个,而不限于与在预定时间段内所操作的控件的数量是单个还是多个有关的操作风格。作为替代,可以基于多个不同操作风格的任一个或它们的组合来确定用户的操作风格。
<改型12>
尽管已经将优选实施例描述为当输入时刻间隔柱状图与声音产生时刻间隔柱状图之间的差的绝对值为最小时确定该声音产生时刻间隔柱状图具有对输入时刻间隔柱状图的高相似度值,然而用于确定这两个柱状图之间的高相似度的条件不必限于两个柱状图之间的差的绝对值,而是可以为任何其他适当的条件,比如:两个柱状图之间的相关度(比如两个柱状图的各个时刻间隔组件的乘积)为最大或大于一个预定阈值的条件,两个柱状图之间的差的平方为最小或小于一个预定阈值的条件,或者两个柱状图之间各个时刻间隔组件具有相似值的条件,等等。
<改型13>
尽管上文已将优选实施例描述为涉及如下情况,其中信息处理装置20搜索具有与经由节奏输入装置10输入的节奏模式相似的节奏模式的节奏模式记录,并将与搜出的节奏模式记录相关联的风格记录输出作为搜出结果,然而还可以采用以下修改的配置。例如,在优选实施例执行的处理由网络服务器执行的情况下,优选实施例中信息处理装置20所拥有的功能由提供网络服务的服务器设备所拥有,并且作为客户机设备的用户终端(比如PC)经由互联网、专用线路等向服务器设备传送针对指定演奏部件而输入的节奏模式。基于从客户机设备接收的演奏部件和节奏模式,服务器设备在存储部分中搜索具有与输入节奏模式相似的节奏模式的节奏模式记录,并随后将与该节奏模式记录相关联的风格记录传送到用户终端作为搜出结果。然后,该终端基于接收的风格记录来可听地输出乐音。注意,在该情况下,可以在由服务器设备提供的网站上或应用程序中向客户呈现小节线时钟信号。
<改型14>
节奏输入装置10中的演奏控件可以是键盘和操作板类型(形状)以外的其他类型(形状),比如弦乐器类型、管乐器类型或按钮类型,只要演奏控件响应于用户执行的演奏操作至少输出触发数据即可。作为替代,演奏控件可以具有触摸板形式,在该情况下,具有触摸板功能的平板PC、智能手机、便携式或移动电话之类代替节奏输入装置10作为输入手段。
现在考虑演奏控件具有触摸板形式的情况。在一些情况中,在触摸板的屏幕上显示多个图标。如果图标中显示了乐器的图像和乐器控件(例如键盘)的图像,则用户可以得知应当触摸哪个图标以基于特定乐器或乐器的特定控件来可听地产生乐音。在该情况下,触摸板显示图标的区域对应于上述优选实施例中提供的各个演奏控件。换句话说,在采用触摸板作为输入装置10的情况下,触摸板的屏幕可以分割或划分成多个区域,使得能够按照用户对所划分的任一个区域施加的操作风格来识别搜索目标演奏部件。
作为替代,可以采用弯音轮作为节奏输入装置10的演奏控件。作为另一示例,节奏输入装置(查询模式输入装置)10可以是除包括可手动操作的演奏控件的装置以外的装置,比如使用麦克风的声音输入装置或光信号产生装置。在该情况下,产生了与用户嗓音发音的时刻(时间点)相对应的输入节奏模式(查询模式)或与由用户的操作产生的光信号产生的时刻(时间点)相对应的输入节奏模式(查询模式)。另外,节奏输入装置(查询模式输入装置)10可以是除与采用由节拍器之类给出的拍速信息合拍地输入节奏模式(查询模式)的类型以外的其他类型,比如在编辑器屏幕上以图形方式输入期望节奏模式(查询模式)(例如,在屏幕上显示的时间轴上图形地指示出期望的定时,或者图形地输入期望的模式)的类型。
<改型15>
上述优选实施例以如下方式构造,其中由控制部分21以与输入BPM相同的BPM来提供基于风格记录的乐音数据。作为替代,由于风格记录包括先前被记录为信息的原始BPM,因此用户可以对操作部分25进行操作以使得控制部分21基于风格记录来以原始BPM提供乐音数据。作为另一替代,控制部分21可以紧接在用户从搜出结果当中选择了特定风格记录之后以与输入BPM相同的BPM来基于风格记录提供乐音数据,然后随着时间过去而以逐渐接近该风格记录的原始BPM的BPM来基于风格记录提供乐音数据。
<改型16>
在上述优选实施例中,控制部分21具有筛选功能,用于将具有与用户输入的BPM接近的BPM的风格记录输出作为搜出结果。然而,使得用户能够以搜出结果具有更满意的感觉的方案不限于此。例如,可以将基于输入BPM与风格记录中包括的原始BPM之间的接近度的加权引入用于计算输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离的数学表达式中。假设“a”表示预定常数,“L”表示输入节奏模式与节奏模式表格中包含的节奏模式记录之间的距离,则用于计算相似度的(如参考图11所述)引入了加权的数学表达式可以被表达如下:
相似度=L+|输入BPM-风格记录中包括的BPM|/a
不过要注意的是,用于计算这样的相似度的数学表达式不限于上面的数学表达式,并且可以采用任何其他数学表达式,只要随着输入BPM与风格记录中包括的BPM彼此变得接近而相似度距离减小(即相似度增大)即可。
<改型17>
如果节奏输入装置10不包括输入操作板14,则节奏输入装置10可以被构造如下。这里,默认将贝司乐音输入键盘范围11和旋律音输入键盘范围12分配给键盘200的各个预定键范围。一旦用户指示用户将要输入针对鼓部件的节奏模式,则控制部分21将鼓部件分配给键盘200的预定键范围;例如,控制部分21将低音鼓部件分配给“C3”,将小鼓部件分配给“D3”,将踩镲部件分配给“E3”,并将钹部件分配给“F3”。注意,在该情况下,控制部分21可以对处在键盘200的整个键范围中的每个控件(即键)分配不同的乐器乐音。另外,控制部分21可以在键盘200的每个控件(键)的上方或下方显示已分配的乐器乐音的图像(例如小鼓的图像)。
<改型18>
尽管上面已将图8的处理流程描述为关于在针对每个节奏类别来计算ON-设定时刻间隔的分布(步骤S1)之后计算输入节奏模式中的ON-设定时刻间隔的分布(步骤S3)的情况,然而步骤S1和S3的处理次序也可以颠倒。此外,不管是否颠倒步骤S1和S3的处理次序,控制部分21可以将针对每个节奏类别计算的ON-设定时刻间隔的分布在计算之后存储到RAM或存储部分22中。通过该方式,节奏模式搜索部分214不必再次计算曾计算出的结果,从而能够实现提高的处理速度。
<改型19>
当用户通过在预定时间段之内操作多个控件来输入节奏模式时,例如,当用户按下键盘的多个键以输入和弦时,有可能会引起如下问题。这里假设用户已经在一小节内的时间点“0.25”处输入了一个节奏。在这个情况下,即使用户试图在同一个时间点同时操作多个控件,用户实际上在“0.25”的ON-设定时刻处仅操作了这些控件中的某一个,而在“0.26”的ON-设定时刻处操作另一控件,在这种情况下,控制部分21将会准确地在这些ON-设定时刻处存储输入节奏模式。结果,会不利地输出与用户的意愿不同的搜出结果;因此,不能向用户提供良好的操作性。为解决该问题,可以采用如下配置。
在本改型19中,部件识别部分213基于从节奏输入装置10输入的ON-设定信息和自动伴奏DB 211中包含的部件表格来确定用户的操作是否是在同一时间点针对同一部件而对多个控件执行的。例如,如果在贝司乐音输入键盘范围11中包括的多个控件的一个的ON-设定时刻与贝司乐音输入键盘范围11中包括的多个控件的另一个的ON-设定时刻之间的差落入预定时间段内,那么部件识别部分213确定已在相同时间点处操作了这些控件。这里预定时间段例如是50msec(毫秒)。随后,部件识别部分213将确定结果(即,表示可以认为已在相同时间点操作了多个控件的信息)与具有相应ON-设定时刻的触发数据相关联地输出到节奏模式搜索部分214。然后,节奏模式搜索部分214在从输入节奏模式中排除了一个其ON-设定时刻表示声音产生起始时刻比其他触发数据的ON-设定时刻更晚的触发数据(该触发数据已与表示可以认为已在相同时间点操作了多个控件的信息相关联)之后,使用输入节奏模式来执行节奏模式搜索。即,在该情况下,在基于用户在预定时间段内执行的操作的ON-设定时刻当中,在节奏模式搜索中将会使用表示较早的声音产生起始时刻的ON-设定时刻。不过,作为替代,在基于用户在预定时间段内执行的操作的ON-设定时刻当中,在节奏模式搜索中也可以使用表示较晚声音产生起始时刻的ON-设定时刻。即,节奏模式搜索部分214可以使用任一个基于用户在预定时间段内执行的操作的ON-设定时刻来执行节奏模式搜索。作为另一替代,节奏模式搜索部分214可以计算基于用户在预定时间段内执行的操作的ON-设定时刻的平均值,并随后使用如此计算出的平均值作为用户在预定时间段内执行操作的ON-设定时刻来执行节奏模式搜索。在上述方式中,即使用户在预定时间段内已使用了多个控件来输入节奏,也可以输出与用户的意图最为接近的搜出结果。
<改型20>
如果输入节奏模式存储部分212按小节来存储输入节奏模式的定时被设置为与基于小节线时钟信号的小节切换定时相一致,则可能产生如下问题。例如,当通过用户的操作来输入节奏模式时,在用户想要的节奏模式与由于用户正感觉到的时刻间隔和小节线时钟信号之间的差而引起的实际ON-设定时刻之间会出现从几毫秒至几十毫秒范围的误差。因此,即使用户想的是正在一个小节的开头处输入一个节拍,由于上述误差的存在,该节拍也可能被错误地当作前一小节的节奏输入。在该情况下,将会不期望地输出不同于用户意愿的搜出结果;从而,不能为用户提供良好的操作性。为解决这种问题,当输入节奏模式存储部分212将输入节奏模式存储到RAM中时,将从比当前小节的开头早几十毫秒的时间点(即,前一小节中的最后几十毫秒)到比当前小节的结尾早几十毫秒的时间点的范围作为目标处理范围,就足够了。也就是说,控制部分21将要被存储到RAM中的输入节奏模式的目标范围向前偏移几十毫秒。通过该方式,本改型能够使得输出与用户意愿不同的搜出结果的概率最小。
<改型21>
如果节奏模式搜索部分214执行节奏模式搜索的定时被设置为与基于小节线时钟信号的小节切换定时相一致,则可能产生如下问题。例如,本发明的搜索方法还可以应用于配备有回放功能的乐音数据处理设备,该功能允许将搜出的乐音数据设置为紧接在节奏输入之后的一个小节中与小节线时钟信号同步地回放或再现。在该情况下,为了从紧接在节奏输入操作之后的小节的开头再现搜出的乐音数据组(搜出结果),必须在该小节的开头的时间点之前(即在与进行节奏输入的小节相同的小节之内)输出搜出的结果。此外,在由于RAM的存储容量问题之类而不能提前将要被再现的乐音数据组读出并存储到RAM中的情况下,需要在与进行节奏输入的小节相同的小节之内读出搜出的乐音数据组并将读出的乐音数据组存储到RAM中。为解决这种问题,将节奏模式搜索部分214执行节奏模式搜索的定时向比小节切换定时更早的方向偏移几十毫秒就行了。通过这种方式,在小节切换生效之前执行搜索并将搜出的乐音数据组存储到RAM中,从而能够从紧接在节奏输入之后的小节的开头再现搜出的乐音数据组。
<改型22>
可以作出如下配置以使得能够搜索多个小节(以下称为“N”个小节)的节奏模式而不仅仅是一个小节的节奏模式。例如,在该情况下可以采用这样的方法,其中节奏模式搜索部分214通过使用具有N个小节的输入节奏模式来搜索节奏模式表格。然而,采用该方法,用户不得不在按照小节线时钟信号输入节奏模式之时指定第一小节所处的位置。而且,由于搜出结果是在N个小节之后输出的,所以在输出搜出结果前将会花费很长的时间。为避免这种不便,可以进行如下配置。
在本改型22中,自动伴奏DB 221的节奏模式表格包含每个都具有N个小节的节奏模式数据的节奏模式记录。用户经由操作部分25指定要被作为搜索目标的节奏模式(即搜索目标节奏模式)中的小节的数量。在显示部分24上显示这样的用户指定内容。这里假设用户已指定“2”作为搜索目标节奏模式中的小节数量。一旦用户使用任何控件输入了节奏,控制部分21就首先存储第一小节的输入节奏模式,并随后基于第一小节的输入节奏模式来搜索节奏模式。按照如下操作序列来执行该搜索。首先,对于每个都具有两小节的节奏模式数据的节奏模式记录,节奏模式搜索部分214计算第一小节的输入节奏模式与每个节奏模式数据的第一小节和第二小节的节奏模式之间的距离。随后,针对每个节奏模式数据,节奏模式搜索部分214向RAM中存储计算出的第一小节的输入节奏模式与节奏模式数据的第一小节的节奏模式之间的距离以及计算出的第一小节的输入节奏模式与节奏模式数据的第二小节的节奏模式之间的距离中较小的一个。随后,控制部分21对第二小节的输入节奏模式执行类似的操作。之后,节奏模式搜索部分214将如此存储在RAM中的这些距离针对每个节奏模式数据进行相加,并随后将和(相加的结果)设置为表示节奏模式数据与输入节奏模式之间距离的分数。随后,搜索信息处理部分215将上述分数小于预定阈值的各个节奏模式数据按上述分数的降序来重新排列,然后将这样的节奏模式数据输出作为搜出结果。通过上述方式,可以搜索具有多个小节的节奏模式数据。由于输入节奏模式与节奏模式数据之间的距离是针对每个小节来计算的,所以用户无需指定第一小节处在哪个位置,并且在搜出结果被输出之前不会花费很长时间。
<改型23>
尽管上面已将改型2描述为基于在用户指定演奏部件之后所输入的旋律模式来执行搜索,然而本发明不限于此。例如,在通过对用户指定了演奏部件之后所输入的节奏模式作出响应而执行的搜索所得到的搜出结果当中,可以将在旋律模式上与用户的输入更相似的风格记录输出作为搜出结果。如在改型2中那样,在改型23中采用的风格表格中的每个风格记录除了包括每个演奏部件的节奏模式ID以外还包括如图13所示的每个演奏部件的旋律模式ID。另外,在本改型中,与前文相似,ON-设定时刻除了触发数据以外还包括键盘的音符编号。这里,触发数据中的一系列ON-设定时刻对应于输入节奏模式,并且键盘的一系列音符编号对应于输入旋律模式。
在改型23中,对由节奏模式搜索部分214和搜索信息处理部分215执行的图8的上述搜索处理添加以下处理。这里假设已操作了贝司乐音输入键盘范围11,以输入四分(音符)节奏的旋律模式“C-E-G-E”。输入的旋律模式例如由一系列音符编号“60,64,67,64”表示。由于这里演奏部件是“贝司”,所以节奏模式搜索部分24将旋律模式表格中包含的其部件ID为“01(贝司)”的旋律模式记录识别为比较对象,并计算被识别为比较对象的这些旋律模式记录中的每一个所包括的旋律模式数据与输入旋律模式的差异。
节奏模式搜索部分214计算输入旋律模式与由部件ID为“01(贝司)”的旋律模式记录的每一个中包括的旋律模式数据所表示的旋律模式之间的音高差异方差;下文将把后一个旋律模式称为“声源旋律模式”。这是基于如下思想:两者(即输入旋律模式与声源旋律模式)之间的音高差异的方差越小,则可以认为两个旋律模式越相似。这里假设输入旋律模式由如上所述的“60,64,67,64”表示,并且给出的声源旋律模式由“57,60,64,60”表示。在该情况下,可以通过按照数学表达式(1)计算音高差异的平均值来按照数学表达式(2)计算输入旋律模式与声源旋律模式之间的音高差异方差。
((|60-57|)+(|64-60|)+(|67-64|)+(|64-60|))/4=3.5
                                  ......数学表达式(1)
((|3.5-3|)2+(|3.5-4|)2+(|3.5-3|)2+(|3.5-4|)2)/4=0.25
                                  ......数学表达式(2)
如上面的数学表达式所示,由“60,64,67,64”表示的输入旋律模式与由“57,60,64,60”表示的声源旋律模式之间的音高差异方差被计算为“0.25”。节奏模式搜索部分214对所有的声源旋律模式计算这样的音高差异方差。
接下来,在步骤S7,节奏模式搜索部分214在考虑了输入节奏模式与搜出节奏模式各自旋律模式的情况下得到它们之间的相似度。如果将输入节奏模式与搜出节奏模式之间没有考虑它们各自旋律模式的相似度定义为“S”并且音高差异方差定义为“V”,那么可以通过使用变量x和常数y的如下数学表达式(3)来表达输入节奏模式与搜出节奏模式之间考虑了它们各自旋律模式的相似度Sp,其中0<x<1且y>0:
Sp=(1-x)S+xyV    ......数学表达式(3)
如果变量x为“0”,则上述数学表达式变成“Sp=S”,所算出的相似度将不会反映旋律模式。随着变量x趋近于值“1”,通过上述数学表达式得到的相似度将反映更多的旋律模式。用户可以经由操作部分25来改变变量x的值。并且,在数学表达式(3)中,可以使用音高差异的平均误差来替代音高差异方差。于是,搜索信息处理部分215按搜出节奏模式与输入节奏模式之间考虑了它们各自旋律模式的相似度的降序(即距离的升序)来重新排列搜出的风格记录,并随后存储重新排列后的搜出风格记录。
此外,输入旋律模式中的ON-设定时刻和ON-设定的数量以及构成声源旋律模式的各个音符的ON-设定时刻和ON-设定的数量没有必要彼此一致。在这种情况下,节奏模式搜索部分214按照下述操作步骤序列,针对输入旋律模式的每个ON-设定来确定声源旋律模式的哪些音符对应于输入旋律模式的该ON-设定。
(1)通过使用输入旋律模式的各个音符的ON设定时刻的每一个作为计算基础,节奏搜索部分214计算输入旋律模式的ON-设定时刻的音符与声源旋律模式的最接近于输入旋律模式的该ON-设定时刻的ON-设定时刻的音符之间的音高差异。
(2)通过使用声源旋律模式的各个音符的ON设定时刻的每一个作为计算基础,节奏搜索部分214计算声源旋律模式的ON-设定时刻的音符与输入旋律模式的最接近于声源旋律模式的该ON-设定时刻的ON-设定时刻的音符之间的音高差异。
(3)随后,节奏搜索部分214将在上面步骤(1)中计算的差异与在上面步骤(2)中计算的差异之间的平均值作为输入旋律模式与声源旋律模式之间的音高差异。
注意,为了减小必要的计算量,可以仅使用上面步骤(1)和(2)中的任一个来计算输入旋律模式与声源旋律模式之间的音高差异。
通过上述方式,可以将不仅接近于用户想要的节奏模式而且接近于用户想要的旋律模式的风格记录输出作为搜出结果。因此,用户可以得到节奏模式与输入节奏模式相同然而旋律模式与输入节奏模式不同的风格记录作为搜出结果。
==输入节奏模式与节奏类别之间距离的计算方式==
上面用于计算输入节奏模式和节奏模式的方法仅为示例性的,并且可以以任何其他不同方法或使用任何其他不同方法来计算这样的距离,现说明如下。
-对于类别唯一的输入时刻间隔的数量-
<改型24>
在改型24中,控制部分21基于输入节奏模式中包括的对于要与输入节奏模式比较的节奏模式而言为表征性的或唯一的ON-设定时刻间隔的数量来计算输入节奏模式与每个节奏模式之间的距离。图16是示出预存在存储部分22中的ON-设定时刻间隔表格的一个示例。该ON-设定时刻间隔表格包括表示节奏类别的分类的名称与各个节奏类别的目标ON-设定时刻间隔的组合。注意,采用通过将一个小节分成48个相等时间片段而进行了归一化的ON-设定时刻间隔来对ON-设定时刻间隔表格的内容进行预定。
这里假设控制部分21已经从输入节奏模式的ON-设定时刻计算出了ON-设定时刻间隔,并随后计算了以下面(a)中指示的一组值作为对计算出的ON-设定时刻间隔执行量化处理的结果。
(a)12,6,6,6,6,6
按照计算出的这组值和图16所示的ON-设定时刻间隔表格,控制部分21识别出在输入节奏模式中有一个四分(音符)ON-设定时刻间隔和五个八分(音符)ON-设定时刻间隔。于是,控制部分21将输入节奏模式与每个节奏类别之间的距离计算如下:
输入节奏模式与节奏类别N之间的距离=1-(输入节奏模式中与节奏类别N相关的ON-设定时刻间隔的数量)/(输入节奏模式中的ON-设定时刻间隔的总数量)            ......数学表达式(4)
注意,上述数学表达式仅为示例性的,并且可以采用任何其他数学表达式,只要其使得节奏类别与输入模式的距离随着节奏类别包括更多相关ON-设定时刻间隔而被计算为更小的值即可。并且,通过使用上面的数学表达式(4),控制部分21例如计算出输入节奏模式与八分(音符)节奏模式之间的距离为“0.166”,或者计算出输入节奏模式与四分(音符)节奏模式之间的距离为“0.833”。通过上述方式,控制部分21计算输入节奏模式与每个节奏类别之间的距离,并确定输入节奏模式属于其计算出的距离在这些节奏类别当中最小的特定节奏类别。
-DB节奏类别与输入节奏类别之间的矩阵-
<改型25>
用于计算输入节奏模式与节奏类别之间的距离的方法不限于上述方法,并且可以被修改如下。即,在改型25中,在存储部分22中预存距离参考表格。图17是示出该距离参考表格的一个示例的示图,其中输入模式可能属于的节奏类别与存储在自动伴奏数据库221中的各个节奏模式记录可能属于的类别之间的距离被以矩阵配置来表示。这里假设控制部分21已经确定输入模式所属的节奏类别是八分(即八分音符)节奏类别。在该情况下,控制部分21基于输入模式已被确定为所属的节奏类别以及该距离参考表格来识别输入节奏模式与各个节奏类别之间的距离。例如,在该情况下,控制部分21识别出输入节奏模式与四分(四分音符)节奏类别之间的距离为“0.8”,并且识别出输入节奏模式与八分节奏类别之间的距离为“0”。因此,控制部分21确定八分节奏类别与输入节奏模式之间的距离最小。
-基于对类别唯一的输入时刻以及分数-
<改型26>
用于计算输入节奏模式与节奏类别之间的距离的方法不限于上述方法,并且可以被修改如下。即,在改型26中,控制部分21基于输入节奏模式中对于要与输入节奏模式相比较的节奏类别而言为表征性的或唯一的ON-设定时刻的数量来计算输入节奏模式与每个节奏类别之间的距离。图18是示出预存在存储部分22中的ON-设定时刻表格的一个示例的示图。该ON-设定时刻表格包括如下项的组合:表示节奏类别的分类的名称、各个节奏类别中的对象或目标ON-设定时刻、和在输入节奏模式包括该目标ON-设定时刻的情况下要相加的分数。注意,通过将一个小节分成48个相等片段进行归一化来对该ON-设定时刻表格的内容进行预定。
这里假设控制部分21已经获得如下(b)所表示的ON-设定时刻。
(b)0,12,18,24,30,36,42
在该情况下,控制部分21计算输入节奏模式相对于每个节奏类别的分数。这里,控制部分21计算出“8”为输入节奏模式相对于四分节奏类别的分数,“10”为输入节奏模式相对于八分节奏类别的分数,“4”为输入节奏模式关于八分三连音节奏类别的分数,以及“7”为输入节奏模式关于十六分节奏类别的分数。于是,控制部分21确定计算出的分数最大的那个节奏类别为与输入节奏模式具有最小距离的节奏类别。
前文已经描述了用于计算输入节奏模式与每个节奏类别之间的距离的方法的变型。
<改型27>
本发明还可以被实施为除乐音数据处理设备外的其他形式,比如用于实现这种乐音数据处理的方法,或者用于使得计算机实现图4所示功能的程序。这样的程序可以被存储在存储介质(比如光盘)中来提供给用户,或者经由互联网之类被下载并安装到用户的计算机上。
<其他改型>
尽管已经将优选实施例描述为涉及步骤S6的节奏模式差别计算使用两个时刻差异(即节奏模式A基于节奏模式B的时刻差异和节奏模式B基于节奏模式A的时刻差异)的情况(所谓的“对称距离方案或方法”),然而本发明不限于此,并且在节奏模式差异计算中可以仅使用上述两个时刻差异中的任何一个。
另外,在使用MIDI数据执行上述搜索或可听再现的情况以及以多音轨方式再现多个演奏部件的演奏数据组的情况下,可以仅对音轨中的特定一个执行搜索。
此外,节奏类别确定或识别操作(步骤S2至S5)可以省略,在该情况下步骤S7的节奏模式距离计算操作可以仅使用步骤S6的节奏模式差异计算的结果来执行。
此外,在节奏模式差异计算(步骤S6)中,计算的差异的值可以乘以相应组件音符的击打强度的值,从而可以容易地从搜出结果候选中排除包括了具有较大击打强度的组件音符的节奏模式记录。
此外,尽管优选实施例已被描述为使用每一个具有一小节长度的自动伴奏数据组,然而声音长度不必限定于此。
另外,尽管上面已将优选实施例描述为涉及如下情况,其中响应于用户经由任何演奏控件的输入操作,基于与操作的演奏控件对应的演奏部件来搜索风格记录,然而本发明不限于此。用户可以使用操作部分25而不是任何演奏控件来指定演奏部件。在该情况下,在指定了演奏部件之后当用户操作任何演奏控件时,对指定演奏部件进行输入。例如,在该情况下,即使用户在经由操作部分25指定了“贝司”部件之后操作的是和弦乐音输入键盘范围12,控制部分21也会将用户的该操作认作“贝司”部件的输入。
此外,尽管上面已将优选实施例描述为涉及如下情况,其中按一一对应关系将诸如低音鼓输入操作板14a、小鼓输入操作板14b、踩镲输入操作板14c和钹输入操作板14d之类的不同操作板分配给不同音色的各个节奏部件,然而本发明不限于此,并且可以被配置为针对不同音色的节奏部件的输入操作可以经由单个操作板执行的方式。在这种情况下,用户可以经由操作部分25指定期望节奏部件的音色。
并且,尽管上面已将优选实施例描述为涉及如下情况,其中乐音数据是波形数据并且使用本发明的搜索技术以搜索与乐音生成模式相关联的乐音数据(波形数据),然而本发明的应用不限于此。例如,本发明的搜索技术还可以用于搜索与乐音生成模式相关联的音色数据(音色ID或乐器类型ID),或者与乐音生成模式相关联的任何其他类型的乐音数据。即,本发明中使用的术语“乐音数据”不限于波形数据,而是涵盖了包括音色数据和其他类型的乐音相关数据在内的宽泛概念。
上述优选实施例已经针对演奏数据组中包括的演奏部件类型为和弦、低音鼓、小鼓、踩镲和钹的情况进行了描述。不过,演奏数据组(自动演奏数据组)中包括的演奏部件的类型和数量不限于上述情况,可以根据需要增减。此外,演奏数据组(自动演奏数据组)中的演奏部件的构成(formation)也可以根据需要做出各种改变。
此外,在本发明中,由演奏数据组构成的声音不限于上述针对优选实施例描述的打击乐器的声音,这些声音还可以是任意其它乐器的声音或者非乐器声音。例如,根据需要可以将任何不同于乐器声音的声音,如人类的语音、动物声或者击打特定物体产生的声音,用作诸如鼓、踩镲和钹的节奏部件的声音。

Claims (10)

1.一种用于在存储装置中搜索演奏数据组的设备,所述存储装置中存储了多个演奏数据组,每个演奏数据组包括一个或多个演奏部件的部件演奏数据,每个演奏部件的部件演奏数据包括声音生成模式,所述设备被连接到可由用户操作的输入装置,所述设备包括:
识别部分,其确定由用户在所述输入装置上执行的操作的风格,并且基于确定的操作的风格来将所述演奏部件的至少一个识别为搜索目标部件;
查询获取部分,其获取表示要被作为搜索目标的声音生成模式的搜索查询模式;和
搜索部分,其在所述存储装置中搜索如下部件演奏数据,所述部件演奏数据包括不仅与由所述识别部分识别的演奏部件相匹配而且与由所述查询获取部分获取的搜索查询模式相匹配的声音生成模式。
2.如权利要求1所述的设备,其还包括对应关系表格,其中存储了所述一个或多个演奏部件中的各个演奏部件与在所述输入装置上的操作的多种类型的风格中的各个风格之间的对应关系,并且
其中所述识别部分按照所确定的操作的风格通过参考所述对应关系表格来识别出所述演奏部件中的至少一个。
3.如权利要求1所述的设备,其中所述搜索部分还从所述存储装置中提取包括了从所述存储装置搜出的部件演奏数据的至少一个演奏数据组。
4.如权利要求1所述的设备,其中所述查询获取部分响应于用户经由所述输入装置执行的用于输入期望的声音生成模式的输入操作来获取搜索查询模式。
5.如权利要求1-4中任一项所述的设备,其中所述输入装置包括多个控件,并且
所述识别部分基于用户在预定时间段内操作的控件数量是单个还是多个来确定用户的操作的风格。
6.如权利要求1-4中任一项所述的设备,其中所述输入装置包括至少一个控件,并且
所述识别部分基于用户在控件上执行的操作的持续时间是否超过阈值来确定用户的操作的风格。
7.如权利要求1-4中任一项所述的设备,其中所述输入装置包括至少一个控件,并且
所述识别部分基于用户在控件上执行的操作的强度是否超过阈值来确定用户的操作的风格。
8.如权利要求1-4中任一项所述的设备,其中所述识别部分基于多个不同类型的操作的风格中的任一个、或者其中两个或更多个的组合来确定用户的操作的风格。
9.如权利要求8所述的设备,其中所述输入装置包括多个控件,并且
所述识别部分基于如下项中的任一个、或者其中两个或更多个的组合来确定用户的操作的风格:(1)用户操作了哪个控件;(2)用户在预定时间段内操作的控件数量是单个还是多个;(3)用户在控件上执行的操作的持续时间是否超过了阈值;(4)用户在控件上执行的操作的强度是否超过了阈值。
10.一种用于在存储装置中搜索演奏数据组的设备的计算机实现方法,所述存储装置中存储了多个演奏数据组,每个演奏数据组包括一个或多个演奏部件的部件演奏数据,每个演奏部件的部件演奏数据包括声音生成模式,所述设备被连接到可由用户操作的输入装置,所述方法包括步骤:
识别步骤,用于确定由用户在所述输入装置上执行的操作的风格,并且基于确定的操作的风格来将所述多个演奏部件的至少一个识别为搜索目标部件;
获取步骤,用于获取表示要被作为搜索目标的声音生成模式的搜索查询模式;和
搜索步骤,用于在所述存储装置中搜索如下部件演奏数据,所述部件演奏数据包括不仅与由所述识别步骤识别的演奏部件相匹配而且与由所述获取步骤获取的搜索查询模式相匹配的声音生成模式。
CN201210121046.XA 2011-04-21 2012-04-23 使用表示乐音生成模式的查询的演奏数据搜索 Expired - Fee Related CN102760428B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011-095473 2011-04-21
JP2011095473 2011-04-21
JP2012094414A JP5970934B2 (ja) 2011-04-21 2012-04-18 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記録媒体
JP2012-094414 2012-04-18

Publications (2)

Publication Number Publication Date
CN102760428A true CN102760428A (zh) 2012-10-31
CN102760428B CN102760428B (zh) 2016-11-16

Family

ID=45977297

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210121046.XA Expired - Fee Related CN102760428B (zh) 2011-04-21 2012-04-23 使用表示乐音生成模式的查询的演奏数据搜索

Country Status (4)

Country Link
US (1) US9412113B2 (zh)
EP (1) EP2515249B1 (zh)
JP (1) JP5970934B2 (zh)
CN (1) CN102760428B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104380371A (zh) * 2012-06-04 2015-02-25 索尼公司 用于生成输入音乐数据的伴奏的装置、系统和方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5982980B2 (ja) 2011-04-21 2016-08-31 ヤマハ株式会社 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
JP5891656B2 (ja) * 2011-08-31 2016-03-23 ヤマハ株式会社 伴奏データ生成装置及びプログラム
JP6032467B2 (ja) * 2012-06-18 2016-11-30 株式会社日立製作所 時空間データ管理システム、時空間データ管理方法、及びそのプログラム
GB201211853D0 (en) * 2012-07-04 2012-08-15 Qatar Foundation A system and method for event or entity analysis and exploration in microblogs
JP6047985B2 (ja) * 2012-07-31 2016-12-21 ヤマハ株式会社 伴奏進行生成装置及びプログラム
JP6554826B2 (ja) * 2015-03-05 2019-08-07 ヤマハ株式会社 音楽データ検索装置及び音楽データ検索プログラム
US11093542B2 (en) 2017-09-28 2021-08-17 International Business Machines Corporation Multimedia object search
JP2019200390A (ja) 2018-05-18 2019-11-21 ローランド株式会社 自動演奏装置および自動演奏プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1750116A (zh) * 2004-09-16 2006-03-22 雅马哈株式会社 自动表演风格确定设备和方法
CN1831819A (zh) * 2000-12-07 2006-09-13 索尼公司 通信装置和通信方法
US20080078281A1 (en) * 2002-09-04 2008-04-03 Masanori Katsuta Musical Performance Self-Training Apparatus
CA2663485A1 (en) * 2008-04-22 2009-10-22 Peter Gannon Systems and methods for composing music
US20100305732A1 (en) * 2009-06-01 2010-12-02 Music Mastermind, LLC System and Method for Assisting a User to Create Musical Compositions

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01279296A (ja) * 1988-05-02 1989-11-09 Sharp Corp リズムマシーン
JP2894177B2 (ja) * 1993-10-08 1999-05-24 ヤマハ株式会社 演奏情報分析装置
US5496962A (en) * 1994-05-31 1996-03-05 Meier; Sidney K. System for real-time music composition and synthesis
JP3500750B2 (ja) 1994-12-31 2004-02-23 カシオ計算機株式会社 自動伴奏装置
US5918303A (en) 1996-11-25 1999-06-29 Yamaha Corporation Performance setting data selecting apparatus
IT1298504B1 (it) * 1998-01-28 2000-01-12 Roland Europ Spa Metodo ed apparecchiatura elettronica per la catalogazione e la ricerca automatica di brani musicali mediante tecnica musicale
JP4024440B2 (ja) 1999-11-30 2007-12-19 アルパイン株式会社 曲検索システムのデータ入力装置
US20020073098A1 (en) 2000-02-28 2002-06-13 Lei Zhang Methodology and system for searching music over computer network and the internet based on melody and rhythm input
WO2001069575A1 (en) 2000-03-13 2001-09-20 Perception Digital Technology (Bvi) Limited Melody retrieval system
JPWO2002047066A1 (ja) 2000-12-07 2004-04-08 ソニー株式会社 コンテンツ検索装置及び方法並びに通信システム及び方法
JP3747802B2 (ja) 2001-05-21 2006-02-22 ヤマハ株式会社 演奏データ編集装置及び方法並びに記憶媒体
US6528715B1 (en) 2001-10-31 2003-03-04 Hewlett-Packard Company Music search by interactive graphical specification with audio feedback
EP1326228B1 (en) 2002-01-04 2016-03-23 MediaLab Solutions LLC Systems and methods for creating, modifying, interacting with and playing musical compositions
JP2006106818A (ja) 2004-09-30 2006-04-20 Toshiba Corp 音楽検索装置、音楽検索方法及び音楽検索プログラム
JP4329685B2 (ja) * 2004-12-16 2009-09-09 ヤマハ株式会社 音源制御装置、プログラムおよび音源の制御方法
US7462772B2 (en) * 2006-01-13 2008-12-09 Salter Hal C Music composition system and method
JP5023752B2 (ja) 2007-03-22 2012-09-12 ソニー株式会社 コンテンツ検索装置、コンテンツ検索方法及びコンテンツ検索プログラム
JP5293080B2 (ja) 2008-10-23 2013-09-18 ヤマハ株式会社 電子音楽装置
US8629342B2 (en) * 2009-07-02 2014-01-14 The Way Of H, Inc. Music instruction system
JP5473538B2 (ja) 2009-10-29 2014-04-16 キヤノン株式会社 ストロボ装置および多灯ストロボシステム
JP5598255B2 (ja) 2010-10-28 2014-10-01 パナソニック株式会社 誘導加熱調理器
JP5982980B2 (ja) 2011-04-21 2016-08-31 ヤマハ株式会社 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1831819A (zh) * 2000-12-07 2006-09-13 索尼公司 通信装置和通信方法
US20080078281A1 (en) * 2002-09-04 2008-04-03 Masanori Katsuta Musical Performance Self-Training Apparatus
CN1750116A (zh) * 2004-09-16 2006-03-22 雅马哈株式会社 自动表演风格确定设备和方法
CA2663485A1 (en) * 2008-04-22 2009-10-22 Peter Gannon Systems and methods for composing music
US20100305732A1 (en) * 2009-06-01 2010-12-02 Music Mastermind, LLC System and Method for Assisting a User to Create Musical Compositions

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104380371A (zh) * 2012-06-04 2015-02-25 索尼公司 用于生成输入音乐数据的伴奏的装置、系统和方法
CN104380371B (zh) * 2012-06-04 2020-03-20 索尼公司 用于生成输入音乐数据的伴奏的装置、系统和方法

Also Published As

Publication number Publication date
US9412113B2 (en) 2016-08-09
JP2012234168A (ja) 2012-11-29
CN102760428B (zh) 2016-11-16
JP5970934B2 (ja) 2016-08-17
EP2515249B1 (en) 2017-10-25
US20120271847A1 (en) 2012-10-25
EP2515249A1 (en) 2012-10-24

Similar Documents

Publication Publication Date Title
CN102760426A (zh) 使用表示乐音生成模式的演奏数据搜索
JP6056437B2 (ja) 音データ処理装置及びプログラム
US9053696B2 (en) Searching for a tone data set based on a degree of similarity to a rhythm pattern
CN102760428A (zh) 使用表示乐音生成模式的查询的演奏数据搜索
Casey et al. Content-based music information retrieval: Current directions and future challenges
Bittner et al. Medleydb: A multitrack dataset for annotation-intensive mir research.
US7960638B2 (en) Apparatus and method of creating content
CN101652807B (zh) 音乐转录的方法、系统及装置
Klapuri Introduction to music transcription
Ramirez et al. Automatic performer identification in commercial monophonic jazz performances
JP5879996B2 (ja) 音信号生成装置及びプログラム
WO2022153875A1 (ja) 情報処理システム、電子楽器、情報処理方法およびプログラム
MA et al. Four-way classification of tabla strokes with models adapted from Automatic Drum Transcription
Dewi et al. Gamelan Rindik Classification Based On Mood Using K-Nearest Neigbor Method
Tutzer Drum rhythm retrieval based on rhythm and sound similarity
Sandrock Multi-label feature selection with application to musical instrument recognition
Stevens An Analytical Study of the Sound Design and Production Techniques of IDM Artists
Pot A machine learning approach for generating expressive musical transcriptions
Chue Comparing Features for the Automatic Classification of Vocal Music
Berger A music data mining and retrieval primer
Dixon Audio Analysis Applications for Music

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20161116

Termination date: 20200423