CN104008747A - 用于检测和弦的设备和方法 - Google Patents
用于检测和弦的设备和方法 Download PDFInfo
- Publication number
- CN104008747A CN104008747A CN201410067031.9A CN201410067031A CN104008747A CN 104008747 A CN104008747 A CN 104008747A CN 201410067031 A CN201410067031 A CN 201410067031A CN 104008747 A CN104008747 A CN 104008747A
- Authority
- CN
- China
- Prior art keywords
- chord
- information
- candidate
- trend information
- melody
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
- G10H1/383—Chord detection and/or recognition, e.g. for correction, or automatic bass generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/056—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/081—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/571—Chords; Chord sequences
- G10H2210/576—Chord progression
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
本发明公开了用于检测和弦的设备和方法。和弦检测设备取得表示用户演奏的音乐演奏的音乐演奏数据,取得表示用户演奏的乐曲的乐曲信息,取得表示出现在所述乐曲中的和弦的可能性和不可能性等级的和弦倾向信息,并且基于取得的音乐演奏数据和取得的和弦倾向信息来检测和弦。
Description
技术领域
本发明涉及用于实时检测和弦以适应所取得的音乐演奏数据的设备和方法。
背景技术
传统上,存在用于实时检测和弦以适应所取得的音乐演奏数据的和弦检测设备。这些传统的和弦检测设备包括从输入的音乐演奏数据中通过如下描述的过程A至F来检测合适的和弦的设备(例如,参见日本未经审查的专利公开第2012-98480号)。
A:从输入的音乐演奏数据中取得落入一定和弦检测定时(一定时段)内的音乐演奏数据(音符事件);
B:基于取得的音乐演奏数据和取得的音调信息(keyinformation),通过所设置的提取方法来提取候选和弦;
C:识别每个提取的候选和弦中各个音符(音符事件)的角色;
D:基于其被识别的角色,通过参考音级名称点数表格(pointtable)(后续描述的图3),算出每个音符的音乐点数(重要性);
E:合计通过过程“B”提取的每个候选和弦的音符的各个点数的量,其中通过过程“D”获取各个点数的量;和
F:检测在过程“E”获得最高总点数量的候选和弦作为合适的和弦。
此外,还存在音乐演奏设置数据选择设备,其允许用户选择该用户期望演奏的乐曲的标题,以自动地设置与所选择的乐曲的音乐演奏相适合的音乐演奏设置数据(例如,参见日本专利公开第3821094号)。就传统的音乐演奏设置数据选择设备而言,更具体地,将被设置的音乐演奏设置数据包括伴奏风格数据、旋律音色、以及速度,同时,分别与各乐曲的标题相对应的音乐演奏设置数据组被预先存储在表格中。如果用户选择乐曲的标题,则音乐演奏设置数据选择设备基于选择的标题来参考表格,以取得对应的音乐演奏设置数据来设置取得的音乐演奏设置数据。
发明内容
然而就上述传统的和弦检测设备而言,在取得的音乐演奏数据包括候选和弦的根音的情况下,可以在过程“B”通过使用其中根音被赋予更高点数的音符点数表格(包括在音级名称点数表格中的表格)来容易地检测用户预期的和弦。然而,取决于乐曲,或者由于用双手的音乐演奏,在和弦检测定时中不一定能取得包括用户所期望的和弦的根音的音乐演奏数据。在这种情况下,存在具有不同于乐曲的形象(image)的和弦被检测到的可能性。
传统的和弦检测设备所使用的音级名称点数表格包括用于获取各个和弦自身的优先级点数的优先级点数表格。因此,通过调整优先级点数表格的数值,将更高的优先级赋予特定的和弦以检测这些和弦并不是不可能的。然而,由于对优先级点数表格的调整是针对特定的和弦(乐曲)而作出的,所以调整优先级点数表格仅让检测特定的和弦(其被赋予更高的优先级以获得更高的点数)变得容易,但无法检测适合乐曲形象的和弦。
此外,就传统的音乐演奏设置数据选择设备而言,响应于用户对乐曲的标题的选择,对应于该标题的音乐演奏设置数据在设备上被自动地设置。然而,设置的音乐演奏设置数据包括伴奏风格数据、旋律音色、速度等,但是不包括和弦信息。更具体地,通过传统的音乐演奏设置数据选择设备,和弦未被处理为音乐演奏设置数据,而是被处理为音乐演奏数据。因此,传统的音乐演奏设置数据选择设备能够设置适合用户所选乐曲的伴奏风格数据、旋律音色、速度等,但是不能设置适合乐曲形象的和弦进行(chord progression)。
本发明被实现以解决上述的问题,其目标是提供能够检测这样的和弦的和弦检测设备:该和弦与取得的音乐演奏数据相协调并且适合乐曲的形象。此外,就关于本发明的各个构成特征的描述而言,后续描述的实施例的对应组件的参考字母将提供在括号内以便于对本发明的理解。然而,这不应当被理解为本发明的构成特征被限制为由实施例的参考字母表示的对应组件。
为了实现上述目标,本发明的本质特征是提供和弦检测设备,其包括:音乐演奏数据取得装置(S15),其用于取得表示用户奏出的音乐演奏的音乐演奏数据;乐曲信息取得装置(S2),其用于取得表示用户演奏的乐曲的乐曲信息;和弦倾向信息取得装置(S3),其用于取得表示和弦在乐曲中出现的可能性和不可能性等级的和弦倾向信息;以及和弦检测装置(S17至S21),其用于基于通过音乐演奏数据取得装置取得的音乐演奏数据和通过和弦倾向信息取得装置取得的和弦倾向信息来检测和弦。
在该情况下,音乐演奏数据取得装置取得在预定的时段期间或在预定的定时中用户演奏的音乐演奏数据,例如(S51至S56)。和弦倾向信息表示和弦的可能性或不可能性的等级以便与和弦名称、和弦根音的调式音级(scale degree)、和弦类型以及和弦功能中的至少一个要素相关联,例如(图4中的(c))。和弦倾向信息取得装置通过读出预先以和弦倾向信息与乐曲相关联地存储的和弦倾向信息来取得对应于乐曲的和弦倾向信息,例如(S31、S33、S42)。此外,和弦倾向信息取得装置通过对预先存储以便与乐曲相关联的和弦信息或音乐演奏信息进行分析来取得对应于乐曲的和弦倾向信息,例如(S34至S40、S42)。
此外,和弦检测装置包括:候选提取装置(S17至S20),其用于提取多个候选和弦;第一反映装置(S72),其用于反映由候选提取装置提取的各个候选和弦中的由和弦倾向取得装置取得的和弦倾向信息;并且例如,和弦检测装置检测多个候选和弦当中其和弦倾向信息已被第一反映装置反映的一个候选和弦(S75)。例如,候选提取装置根据乐曲的音调提取候选和弦。在该情况下,乐曲的音调是由用户输入的(R1a),或者是通过对由音乐演奏数据取得装置取得的音乐演奏数据进行分析取得的(R1b)。此外,候选提取装置提取输入或取得的音调的仅自然音阶和弦(R2a)、所有能够在输入或取得的音调中使用的和弦(R2b)、或者能够用在输入或取得的音调中并且每一个都具有一个或多个包括在音乐演奏数据中的音符的和弦(R2c),作为候选和弦。
根据被配置为如上的本发明,响应于用户的音乐演奏,和弦检测设备取得与用户的音乐演奏对应的音乐演奏数据和与用户演奏的乐曲对应的和弦倾向信息,以根据取得的音乐演奏数据以及和弦倾向信息来检测适合该乐曲形象的和弦。结果,本发明的和弦检测设备省去了用户为了使得用户预期的和弦检测成为可能所花费的精力,诸如为了在用户演奏的音符中无误地包括和弦的根音而花费的精力。因此,和弦检测设备允许用户把精力集中在演奏乐曲上。
此外,该和弦检测设备将不会通过例如根据针对用户选择的乐曲预先存储的和弦进行而顺序地读出和弦来严格地固定和弦进行,而是仅促进检测适合于所选乐曲的形象和音符(音乐演奏数据)的和弦。因此,即使用户在用户的音乐演奏期间按照用户的期望改编乐曲,或者按照用户的期望增加或省略重复,该和弦检测设备也总是能够实现适合乐曲的形象和音符的和弦检测。结果,该和弦检测设备使得具有各种编排的多种多样的音乐演奏成为可能,同时保持了乐曲的形象。
在存在与指定乐曲对应的预先存储的和弦倾向信息的情况下,本发明的和弦检测设备能够容易地读出和使用和弦倾向信息。然而,在不存在与乐曲对应的预先存储的和弦倾向信息的情况下,本发明的和弦检测设备能够通过对预先存储以便与乐曲相联系的和弦信息或音乐演奏信息进行分析来取得对应于该乐曲的和弦倾向信息。因此,同样在该情况下,本发明的和弦检测设备能够检测适合该乐曲的形象的和弦以适应取得的音乐演奏数据。
本发明的另一个特征是和弦检测装置还包括第二反映装置(S66至S70),其用于通过使用由音乐演奏数据取得装置取得的音乐演奏数据,来检测由音乐演奏数据表示的音符对于由候选提取装置提取的每个候选和弦的各个重要性等级,并且反映候选和弦中的所检测到的重要性等级;并且和弦检测装置从重要性等级也已被第二反映装置反映的候选和弦之中检测一个和弦。根据该特征,由音乐演奏数据表示的音符对于候选和弦的各个重要性等级同样被反映在候选和弦中,使得和弦检测设备能够更恰当地检测适合乐曲的形象的和弦,以适应取得的音乐演奏数据。
本发明的进一步的特征是和弦检测装置还包括第三反映装置(S71),其用于反映由候选提取装置提取的候选和弦自身在各个候选和弦中的优先级等级;并且和弦检测装置从候选和弦的各自的优先级等级也已被第三反映装置反映的候选和弦之中检测一个和弦。根据该特征,候选和弦自身的各个优先级等级同样被反映在候选和弦中,使得和弦检测设备能够更恰当地检测和弦,以适应取得的音乐演奏数据。
本发明不仅能够实现为和弦检测设备的发明,还可以实现为用于检测和弦的方法和和弦检测程序的发明。
附图说明
图1是示出根据本发明的实施例的和弦检测设备的示意配置的框图;
图2是示出和弦检测定时的示例设置的图示;
图3是音级名称点数表格的示例;
图4是音乐演奏设置数据((a))、音乐内容数据((b))、以及和弦倾向信息((c))的示例;
图5A是示出使用由和弦检测设备,特别是图1所示的CPU,执行的自动伴奏的音乐演奏处理的前半部分的流程图;
图5B是示出所述音乐演奏处理的后半部分的流程图;
图6是示出图5A中所示的和弦倾向信息取得处理的详细过程的流程图;
图7是示出图5A中所示的音符事件处理的详细过程的流程图;
图8A是示出图5B中所示的和弦检测处理的详细过程的前半部分的流程图;
图8B是示出所述和弦检测处理的详细过程的后半部分的流程图;
图9A是示出图8A中所示的角色提取处理的详细过程的前半部分的流程图;
图9B是示出所述角色提取处理的详细过程的后半部分的流程图。
具体实施方式
将参考附图描述本发明的实施例。图1是示出根据本发明的实施例的和弦检测设备的示意配置的框图。如图1所示,该实施例的和弦检测设备具有演奏操作元件1、设置操作元件2、检测电路3、检测电路4、CPU5、ROM6、RAM7、计时器8、自动伴奏设备9、显示装置10、存储装置11、通信接口(I/F)12、乐音产生器/效果电路13和音响系统14。
演奏操作元件1包括键盘,其用于按照用户的音乐演奏操作来输入包括音高信息的音乐演奏数据。设置操作元件2包括开关,其用于输入各类信息。检测电路3检测演奏操作元件1的操控。检测电路4检测设置操作元件2的操控。CPU5控制整个设备。ROM6存储CPU5将执行的控制程序和各类表格数据。RAM7临时性地存储音乐演奏数据、各类输入信息、计算结果等。计时器8测量计时器中断的中断时间和各种时间。自动伴奏设备9基于由CPU5提供的和弦信息来生成用于产生伴奏声音的音乐演奏数据(稍后描述)。显示装置10具有LCD(液晶显示器)、LED(发光二极管)等,用于显示各种信息。通信I/F12将和弦检测设备与诸如外部MIDI(乐器数字接口)设备之类的外部设备100相连接,以将数据发送至外部设备100或从外部设备100接收数据。乐音产生器/效果电路13将通过演奏操作元件1输入的音乐演奏数据和由自动伴奏设备9产生的音乐演奏数据转换为乐音信号,并且向乐音信号加入各类效果。音响系统14具有DAC(数字-模拟转换器),例如,其将从乐音产生器/效果电路13提供的乐音信号转换为音乐声。音响系统14还具有放大器、扬声器等。
上述组件3至13经由总线15彼此连接。计时器8连接至CPU5和自动伴奏设备9。外部设备100连接至通信I/F12。音响系统14连接至乐音产生器/效果电路13。
自动伴奏设备9,其通过使CPU5执行预先存储在ROM6中的音序器软件来实现,例如,其基于如上描述的提供的和弦信息通过生成音乐演奏数据、并将生成的音乐演奏数据提供给乐音产生器/效果电路13来产生伴奏声音。此外,自动伴奏设备9具有这样的功能:通过再现例如用户从预先存储在ROM6中的各类伴奏风格数据中选择的伴奏风格数据,来生成音乐演奏数据。当使用该功能时,自动伴奏设备9基于从计时器8提供的时间信息来再现伴奏风格数据。由于本发明不是以自动伴奏设备9的配置和作用为特征的,对自动伴奏设备9的配置和作用不进行进一步的说明。
存储装置11包括诸如软盘(FD)、硬盘(HD)、CD-ROM、DVD(数字通用光盘)、磁光盘(MO)和半导体存储器之类的存储介质以及它们的驱动器。存储介质可以是从驱动器上可拆卸的。此外,存储装置11自身是可以从本实施例的和弦检测设备上可拆卸的。可替代地,存储介质和存储装置11两者可以是不可拆卸的。在存储装置11(的存储介质)中,将可以如上所述地存储CPU5执行的控制程序。在控制程序未被存储在ROM6中的情况下,存储装置11可以存储控制程序以允许RAM7读取控制程序以允许CPU5与控制程序存储在ROM6中的情况相类似地操作。在那样的情况下,结果是,有利于控制程序的增加和升级。
在示出的例子中,外部设备100连接至通信I/F12。然而,外部设备不限于示出的例子。例如,服务器计算机可以经由诸如LAN(局域网)、因特网、或电话线路之类的通信网络连接至通信I/F12。在这种情况下,如果上述的程序和各种参数没有存储在存储装置11中,则为了从服务器计算机下载程序和参数,使用通信I/F12。作为客户端的和弦检测设备经由通信I/F12和通信网络将请求下载程序和参数的命令发送到服务器计算机。响应于该命令,服务器计算机通过通信网络将请求的程序和参数分配给和弦检测设备,使得和弦检测设备能够通过通信I/F12接收程序和参数并将接收到的程序和参数存储在存储装置11中以完成下载过程。
从上述配置中显而易见的是,本实施例的和弦检测设备被配置在电子键盘乐器上。尽管如此,和弦检测设备还可以配置在具有外接键盘的通用个人计算机上。此外,和弦检测设备可以使用弦乐器类型或管乐器类型的形式,这样本发明可以不带键盘地实现。此外,本发明不仅能够应用至电子乐器,还可以应用至诸如卡拉OK设备、游戏设备和通信设备之类的电子设备。
将参考图2至图4对如上配置的和弦检测设备所执行的控制处理进行简要地说明,并将参考图5A、图5B、图6、图7、图8A、图8B、图9A和图9B对其进行详细的说明。
图2示出了和弦检测定时的示例设置。更具体地,图2示出了四四拍的乐曲被选择作为要演奏的乐曲的示例,其中第一节拍和第三节拍被定义为和弦检测基准位置,从每个和弦检测基准位置提前250ms开始到每个和弦检测基准位置之后50ms结束的时间段被定义为和弦检测定时。在所示的示例中,虽然和弦检测定时被设置在第三节拍上,和弦检测定时没有设置在第一节拍上。这是因为第一节拍的和弦检测定时具有与第三节拍的和弦检测定时同样的时段。因此,只要针对图中节拍中的一个示出了和弦检测定时,很显然的是,其他的节拍也具有相似的和弦检测定时。此外,如稍后详细描述的那样,用户被允许选择和弦检测定时的位置、定时的持续时间、以及定时的数量(或定时的频率)。
响应于使用键盘的用户的音乐演奏,本实施例的和弦检测设备直接将实时输入的音乐演奏数据提供至乐音产生器/效果电路13,以根据提供的音乐演奏数据产生声音,并且根据实时输入的音乐演奏数据检测出适合所演奏的乐曲的形象的和弦,以将检测到的和弦提供至自动伴奏设备9从而还产生伴奏声音。和弦检测定时的时段(持续时间)是在其期间将被参考用于和弦检测的音乐演奏数据被提供给和弦检测设备的时段。换句话说,仅参考在和弦检测定时期间提供的音乐演奏数据以用于和弦检测,从而用于生成伴奏声音。
在该实施例中,通过对背景技术说明中描述的日本未经审查的专利公开第2012-98480号中描述的传统和弦检测设备所执行的和弦检测处理进行修改来完成和弦检测。更具体地,虽然在背景技术说明中描述的处理A至F被不带任何修改地完成,但是稍后将要描述的处理G被加入到处理E和处理F之间。
图3示出了在处理D处参考的音级名称点数表格的示例,图4分别示出了用于和弦检测的音乐演奏设置数据((a))、音乐内容数据((b))、以及和弦倾向信息((c))的示例。
尽管图3与作为上述现有技术文档的日本未经审查的专利公开第2012-98480号的图3是一样的,将说明图3的音级名称点数表格。在上述日本未经审查的专利公开第2012-98480号中所写的内容将合并到本说明书中。音级名称点数表格包括:音符点数表格(第五到第十一列),其用于获得每个可能的候选和弦的各个音符(根音、三度音、五度音等)的点数;优先级点数表格(第四列),其用于获取每个和弦自身的优先级点数(优先级)。分别针对大调和小调来提供该音级名称点数表格,并且该音级名称点数表格还具有关于和弦功能以及关于对应和弦是否是自然音阶和弦的各条信息(第三和第二列)。虽然图3的音级名称点数表格是列出了大调的所有可能的候选和弦的表格,但是针对小调的候选和弦也可以提供相似表格(未示出)。
在图3的音级名称点数表格中,第一列示出音级名称信息(也称作和弦信息,下文中简称为音级名称)。除了所示的音级名称之外,音级名称点数表格还包括很多音级名称。每个音级名称通过关于主调(key tonic)的调式音级(根音的调式音级,诸如I、II、III、IV、V……)以及和弦类型(例如,无符号(大调)、m(小调)、7、6、Maj7(大7)、m6(小6)、m7(小7)、add9(大调加9度)……)的组合来表示和弦。在该图中,表示降音符,该符号在后续描述的其他示例中被相似地使用。
音级名称点数表格被设计为:在第一列(第一栏)中示出的每个音级名称具有第二列和后面列(第二栏和后面栏)中示出的各类信息。第二列的自然音阶信息表示由对应的音级名称表示的和弦是(○)否(×)是自然音阶和弦。第三列的功能信息表示对应的音级名称的功能,即,音级名称的功能是主音(T)、次属音(S)、属音(D)或次属音小调(SM)。第四列的优先级点数信息(优先级)通过点数来表示分配给对应音级名称的优先级等级。该点数同样被称为和弦优先级点数或音级名称优先级点数。在音级名称点数表格中,第五至第十一列构成了音符点数表格部分,其定义了表示描述对应和弦的特征的每个音符(根音、三度音、五度音,等)的音乐重要性等级的音符点数信息。
在第五至第九列的每列中示出的音符点数信息通过点数值表示对应和弦的和弦构成音符的对应音符(角色)的音乐重要性等级。更具体地,第五列的根音点数信息表示了赋予对应和弦的和弦构成音符的根音的点数。第六列的三度音点数信息表示了赋予对应和弦的和弦构成音符的三度音的点数。第七列的五度音点数信息表示了赋予对应和弦的和弦构成音符的五度音的点数。第八列的第四音符点数信息表示了赋予第四音符(其是源自对应和弦的和弦构成音符的根音的大六度(6th)、小七度(7th)或大七度(Maj7th))的点数。第九列的变化音的点数信息表示了赋予源自对应和弦的和弦构成音符的根音的减五度音或增五度音(#5th)的变化的五度音(变化和弦音)的点数。
第十列的引伸音点数信息通过点数值表示引伸音的音乐重要性等级。引伸音是被置于对应和弦的基本和弦构成音符之上的和声外音以增加张力。第十一列(最右边栏)的其他点数信息表示其他音符(其既非和弦构成音符也非引伸音,比如从和弦声音中排除的避用音)的音乐重要性等级。其他点数信息同样通过点数表示。
在该音符点数表格部分(第五至第十一列)中,在和弦构成音符当中特别地具有根音角色的音符(键按下或音高信息产生的音符)被认为是具有更高的重要性从而被赋予更高的点数。此外,在和弦构成音符当中,对于和弦类型确定负有重大责任的三度音或七度音(第四音符)的音符同样被认为是重要的。然而,在和弦中具有不协和的角色的(其他的)音符具有较低的重要性从而被赋予较低的点数。
通过上述的处理B至E,和弦检测设备算出每个候选和弦(和弦列表,Chord List)的总点数。更具体地,根据将要经过和弦检测的输入音乐演奏数据的音调(Key),来提取候选和弦(和弦列表)(处理B)。换句话说,候选和弦登记在和弦列表中。在和弦检测设备中,例如,预先存储了能够用于某个调的一些和弦类型的组合,使得和弦检测设备能够在和弦检测时选择期望的组合以提取对应于所选组合的和弦作为候选和弦(和弦列表)。由于图3所示的音级名称点数表格不仅具有点数信息(第四至第十一列),还具有附加信息(例如,表示音级名称(音级名称:第一列)的和弦是否是自然音阶和弦的自然音阶信息)、和表示音级名称功能的功能信息,因此,该和弦检测设备能够使用音级名称点数表格通过参考附加信息来提取候选和弦(和弦列表)。
例如,在那一时刻能够被识别为自然音阶和弦(第二列的信息=“○”)的所有和弦(音级名称)可被提取作为候选和弦。可替代地,在第二个或之后的和弦检测时,可以对先前检测中检测到的和弦的功能(第三列的信息)进行检查,使得能够从先前和弦(Chord)中音乐地取来以适合下一进行的和弦(音级名称)将被提取作为候选和弦(和弦列表),比如将主音(T)取来接着用于属音(D)。附加信息可以不包括在音级名称点数表格中,而可以是作为参考表格单独提供。
在对候选和弦(和弦列表)的提取之后,确定包括在目标音乐演奏数据(音符列表,Note List)中的每个音符(键按下产生的音符,Note)在提取的候选和弦(和弦列表)中扮演什么角色(处理C)。换句话说,确定包括在目标音乐演奏数据中的每个音符在登记在和弦列表中的候选和弦中扮演什么角色。每个音符的角色是和弦构成音符(根音、三度音、五度音、第四音符和变化的五度音)、引伸音、或避用音中的任一个。接着,根据音级名称点数表格来获得对应于确定的角色(构成音符、引伸音、避用音)的点数(处理D)。之后,针对每个候选和弦,与所有演奏的音符(音符列表)对应的点数(重要性)被累加(处理E)。
在通过处理E对每个提取的候选和弦的点数计算之后,CPU5执行下面的处理G:
G:通过参考当前演奏的乐曲(在示出的示例中,乐曲标题“○○○”)的和弦倾向信息(图4中的(c)),来调整候选和弦的各个点数的量。
将在控制处理的详细说明中具体地说明点数调整。然而,在候选和弦被定义为“很有可能出现”的情况下,候选和弦的点数的量将被调整以增加点数的量。反之,在候选和弦被定义为“不太可能出现”的情况下,候选和弦的点数的量将被调整以减少点数的量。
之后,CPU5通过对点数调整的候选和弦执行上述处理F来进行和弦检测。更具体地,CPU5选择具有在处理G调整的最高点数的量的候选和弦,以定义选择的和弦作为最适合目标音乐演奏数据的和弦(和弦)。
如图4中的(a)所示,基于音乐演奏设置数据中提供的“和弦倾向信息”栏中描述的信息(参考路径),来识别和弦倾向信息的存储位置。由于音乐演奏设置数据是针对每个乐曲提供的,所以和弦倾向信息与乐曲相关联。然而,由于音乐演奏设置数据的一些设置,即,一些乐曲在“和弦倾向信息”栏中不具有任何参考路径,所以和弦倾向信息不一定被存储为与乐曲相关联。然而,在该实施例中,在紧接处理E的处理F之前一直参考对应于目标乐曲的和弦倾向信息,以调整每个候选和弦的点数的量。因此,在任意的和弦倾向信息未被存储在任何地方的情况下,CPU5将基于目标乐曲的音乐内容数据(见图4中的(b))来产生对应于目标乐曲的和弦倾向信息。将在后面详细描述和弦倾向信息的产生。
如上所述,响应于用户的选择和用户期望演奏的乐曲的音乐演奏,本实施例的和弦检测设备取得对应于选择的乐曲的和弦倾向信息,并基于该和弦倾向信息来检测适合乐曲的形象的和弦。因此,和弦检测设备省去了用户为了能够检测到用户期望和弦而花费的精力,诸如为了在用户演奏的音符中无误地包括和弦的根音而花费的精力。因此,和弦检测设备使得用户能够把精力集中在演奏乐曲上。
此外,该和弦检测设备将不会通过例如根据针对用户选择的乐曲预先存储的和弦进行而顺序地读出和弦来严格地固定和弦进行,而是仅促进检测到适合于所选乐曲的形象和音符(音乐演奏数据)的和弦。因此,即使用户在用户的音乐演奏期间按照用户的期望改编乐曲,或者按照用户的期望增加或省略重复,该和弦检测设备也总是能够实现适合乐曲的形象和音符的和弦检测。结果,该和弦检测设备使得具有各种编排的多种多样的音乐演奏成为可能,同时保持了乐曲的形象。
下一步,将详细说明控制处理。图5A和图5B示出了具有自动伴奏的音乐演奏处理的流程图,通过和弦检测设备,特别地通过本实施例的CPU5来执行该处理。本实施例的和弦检测设备具有第一和第二音乐演奏模式作为用户通过使用演奏操作元件1进行实时音乐演奏的音乐演奏模式。在第一音乐演奏模式中,在不操作自动伴奏设备9的情况下,产生与使用演奏操作元件1输入的音乐演奏数据对应的乐音。在第二音乐演奏模式中,自动伴奏设备9被操作使得不仅能够产生与使用演奏操作元件1输入的音乐演奏数据对应的乐音,还能够产生与由自动伴奏设备9产生的音乐演奏数据对应的乐音(伴奏音)。普通音乐演奏模式,即,在打开本实施例的和弦检测设备时首先选择的音乐演奏模式为第一音乐演奏模式。要转换到第二音乐演奏模式,用户必须做出一定的指示以进入第二音乐演奏模式。上述的“具有自动伴奏的音乐演奏处理”是响应于用于进入第二音乐演奏模式的指令而开始的处理。在本实施例中,本发明的所有特征都结合在“具有自动伴奏的音乐演奏处理”中,因此将通过“具有自动伴奏的音乐演奏处理”来说明本发明的特征。因此,将不会对“不具有自动伴奏的音乐演奏处理”进行说明。因此,后文将把“具有自动伴奏的音乐演奏处理”简称为“音乐演奏处理”。
音乐演奏处理主要包括处理(1)至(5):
(1)启动处理(图5A的步骤S1至S7);
(2)自动伴奏开始处理(图5A的步骤S10);
(3)自动伴奏停止处理(图5A的步骤S12);
(4)音符事件处理(图5A的步骤S15);以及
(5)和弦检测定时处理(图5B的步骤S17至S24)
当音乐演奏处理开始时,上述的启动处理(1)(步骤S1至S7)被执行一次。在启动处理之后,和弦检测设备保持待机状态直到给出用于开始自动伴奏的指令(步骤S8→S9→S8)。如果给出用于开始自动伴奏的指令,则执行上述的自动伴奏开始处理(2)(步骤S10)。在自动伴奏开始处理之后,执行上述的音符事件处理(4)和和弦检测定时处理(5)(步骤S15和步骤S17至S24)。处理(4)和(5)一直重复直到给出用于停止自动伴奏的指令(步骤S11)或者给出用于返回到第一音乐演奏模式的指令(步骤S8)。如果给出用于停止自动伴奏的指令,则执行上述的自动伴奏停止处理(3)(步骤S12)。在自动伴奏停止处理之后,确定乐曲是否改变(步骤S13)。如果乐曲已改变,则音乐演奏处理返回到上述的启动处理(1)(步骤S1至S7)(步骤S13→S1)。如果乐曲未改变,则和弦检测设备返回到待机状态(步骤S13→S8)。如果给出用于返回到第一音乐演奏模式的指令,则音乐演奏处理终止(步骤S8→结束)。
上述的启动处理(1)由下列处理(11)至(16)形成:
(11)乐曲选择和设置处理(步骤S1和S2);
(12)和弦倾向信息取得处理(步骤S3);
(13)和弦检测定时、各种规则和各类信息的设置处理(步骤S4);
(14)点数表格读取处理(步骤S5);
(15)初始化处理(步骤S6);以及
(16)和弦检测定时开始点和结束点计算设置处理(步骤S7)。
当音乐演奏处理进入启动处理(1)时,CPU5执行乐曲选择和设置处理(11)(步骤S1和S2)。在乐曲选择和设置处理(11)中,CPU5例如在显示装置10上显示可选的乐曲标题列表。如果用户从显示的标题列表选择任何一个乐曲,则CPU5读出对应于选择的乐曲的音乐演奏设置数据(步骤S1),并且将在音乐演奏设置数据中描述的各种设置值写入对应的寄存器等中以设置数值(步骤S2)。例如,在乐曲的标题“○○○”被选择的情况下,由于在该乐曲“○○○”上的音乐演奏设置数据具有如图4的(a)中所示的伴奏风格“流行1”、旋律音色“大钢琴”等,所以这些设置值被提供至对应的寄存器等。未被示出的设置项(参数)包括音乐演奏速度、音量值、以及时间。
之后,CPU5前进到上述的和弦倾向信息取得处理(12)(步骤S3)。图6是示出和弦倾向信息取得处理(12)的详细过程的流程图。在该和弦倾向信息取得处理中,在图4的(c)中作为示例示出的和弦倾向信息被取得。
在该实施例中,和弦倾向信息被存储在与音乐演奏设置数据所存储的位置不同的位置中,而指示该和弦倾向信息的存储位置的信息(本实施例中使用“参考路径”作为信息)被记录在“音乐演奏设置数据”的“和弦倾向信息”栏中(见图4的(a))。然而,在一些情况下,可以存在其中没有记录任何用于和弦倾向信息的参考路径的音乐演奏设置数据。此外,可以存在这样的情况:即使音乐演奏设置数据具有用于和弦倾向信息的参考路径,但是在存储位置中未存储任何有效的和弦倾向信息。因此,在和弦倾向信息取得处理中,能够通过下列情况(C1)至(C3)中的各个方式取得和弦倾向信息:
(C1)对于音乐演奏设置数据不具有任何用于和弦倾向信息的参考路径(表明没有要取得的和弦倾向信息),需要新产生要取得的和弦倾向信息的情况。
(C2)对于音乐演奏设置数据具有用于和弦倾向信息的参考路径,但是通过该参考路径能够被参考的和弦倾向信息处于初始状态(更具体地,尽管用于和弦倾向信息的存储区被保留,但是在那个区域中没有存储有效的和弦倾向信息),需要新产生要取得的和弦倾向信息的情况;以及
(C3)用于和弦倾向信息的参考路径被记录在音乐演奏设置数据上,同时通过参考路径参考的和弦倾向信息未处于如上述情况(C2)的初始状态,而处于有效的状态,从而能够取得和弦倾向信息的情况。
假定和弦倾向信息取得处理在上述情况(C1)下开始。由于音乐演奏设置数据上没有记录任何用于和弦倾向信息的参考路径,即,由于不存在CPU5能够取得的和弦倾向信息,所以CPU5在存储装置11中保留要存储将被新产生的和弦倾向信息的区域,例如,产生表示该区域的位置的信息作为参考路径形式的信息,并且在音乐演奏设置数据的特定位置(图4的(a)中的“和弦倾向信息”栏)中记录产生的信息(步骤S31→S32)。
之后,CPU5搜索对应于选择的乐曲的音乐内容数据(步骤S34)。CPU5将要搜索的位置可以是CPU5能够搜索的任意位置。该位置可以在本实施例的和弦检测设备内部,例如ROM6、RAM7以及存储装置11。此外,该位置可以在本实施例的和弦检测设备的外部,例如,外部设备100的存储介质。在和弦检测设备通过通信I/F12连接至因特网的情况下,CPU5能够搜索与因特网连接的服务器计算机。如上所述,由于存在很多要搜索的位置,会出现CPU5能够找到用于一个乐曲的多组音乐内容数据的情况。上述图4的(b)中示出的音乐内容数据是多组数据中的一组。所示的具有乐曲的标题“○○○”的音乐内容数据具有和弦进行信息、音乐演奏数据和附加信息。然而,音乐内容数据可以由音乐演奏数据和附加数据形成而不包括和弦进行信息,或者可以由和弦进行信息和附加信息形成而不包括音乐演奏数据。此外,虽然所示的音乐内容数据的音乐演奏数据是MIDI数据,但是音乐演奏数据可以是音频数据。可替代地,音乐演奏数据组的一部分可以是MIDI数据,而音乐演奏数据组的其他部分可以是音频数据。
之后,CPU5针对三种不同情况(C11)至(C13)分别执行不同处理:
(C11)通过CPU5查找的多个音乐内容数据组包括具有CPU5能够参考的和弦(进行)信息的音乐内容数据组的情况;
(C12)通过CPU5查找的多个音乐内容数据组不包括任何具有CPU5能够参考的和弦(进行)信息的音乐内容数据组,但是包括具有CPU5能够参考的音乐演奏数据的音乐内容数据组的情况;以及
(C13)通过CPU5查找的多个音乐内容数据组既不包括具有CPU5能够参考的和弦(进行)信息,也不包括具有CPU5能够参考的音乐演奏数据的音乐内容数据的情况。
在上述情况(C11)下,CPU5取得音乐内容数据的音调信息(步骤S35→S36)。在音乐内容数据包括音调信息的情况下,CPU5读出音调信息以取得音调信息。在音乐内容数据不包括音调信息的情况下,CPU5可以分析音乐内容数据(和弦(进行)信息或音乐演奏数据)以提取并取得音调信息。
之后,根据取得的音调信息,CPU5从音乐内容数据提取和弦(进行)信息,并分别将包括在和弦(进行)信息中的和弦转换为音级名称(步骤S37)。例如,被转换为音级名称的和弦被临时性地存储在RAM7的工作区中。
CPU5之后分析每个音级名称的出现,产生和弦倾向信息,并且将产生的和弦倾向信息存储在由记录在音乐演奏设置数据上的参考路径示出的存储区中(步骤S40)。在该实施例中,如图4中的(c)所示,和弦倾向信息示出用于目标乐曲的在一个或多个类别中的分类为“很可能出现”或“不太可能出现”的元素,其具有赋予的优先级顺序。虽然在该图中所示的和弦倾向信息具有“音级名称”、“和弦根音的调式音级(与音调(主音)相关联的和弦根音的调式音级)”、“和弦类型”和“功能”(功能表示主音(T)、属音(D)、次属音(S)或次属音小调(SM))类别,但是类别可以包括和弦名称自身。在该实施例中,优先级顺序由“%”表示以示出包括在“很可能出现”的类别中的每个元素的出现率。然而,优先级顺序可以通过点数值或概率表示。
在上述情况(C12)下,CPU5分析包括在音乐内容数据中的音乐演奏数据,提取音调信息和和弦进行信息,并且根据提取的音调信息将包括在提取的和弦(进行)信息中的和弦转换为音级名称(步骤S35→S38→S39)。被转换为音级名称的和弦分别被临时性地存储在RAM7的工作区中,类似于上述的步骤S37。CPU5之后进行至步骤S40。步骤S40的说明不再重复。
在上述情况(C13)下,CPU5产生默认的和弦倾向信息,并且将产生的和弦倾向信息存储在由记录在音乐演奏设置数据上的参考路径示出的存储区中(步骤S35→S38→S41)。
之后,CPU5从能够通过记录在音乐演奏设置数据上的参考路径参考的存储区中读出和弦倾向信息,并且在RAM7上提供的用于存储和弦倾向信息的和弦倾向信息存储区(未示出)中存储该和弦倾向信息(步骤S42)。
假定和弦倾向信息取得处理在上述情况(C2)下开始。在该情况下,虽然音乐演奏设置数据具有用于和弦倾向信息的参考路径,但是由参考路径示出的和弦倾向信息处于初始状态。因此,CPU5进行至上述步骤S34。由于已经说明了步骤S34和其后续的步骤,所有这些步骤的说明在此不再重复。通过执行步骤S34和其后续的步骤,初始的和弦倾向信息被替换为有效的和弦倾向信息,由此新的和弦倾向信息存储在和弦倾向信息存储区中。
此外,假定和弦倾向信息取得处理在上述情况(C3)下开始。在该情况下,由于音乐演奏设置数据具有用于有效的和弦倾向信息的参考路径,所以CPU5从由音乐演奏设置数据上记录的参考路径示出的存储区读出和弦倾向信息,并且在和弦倾向信息存储区中存储和弦倾向信息(S31→S33→S42)。
该处理之后返回到图5A,由此CPU5前进到和弦检测定时、各种规则和各类信息设置处理(13)(步骤S4)。在和弦检测定时、各种规则和各类信息设置处理中,CPU5设置用于设置和弦检测定时、其他规则和各类信息的规则。
和弦检测定时设置规则定义了是提供一段时间作为和弦检测定时,还是通过时间点规定和弦检测定时而不提供任何时段。在提供一段时间作为和弦检测定时的情况下,和弦检测定时设置规则还定义基准位置、基准位置之前和之后提供的朝前和向后时段。在通过时间点规定和弦检测定时的情况下,和弦检测定时设置规则还定义用作和弦检测定时的时间点。图2示出了其中每隔一节拍(例如,在四四拍的情况下的第一和第三节拍)被定义为和弦检测基准位置的一个时段的示例,其中从每个和弦检测基准位置提前250ms开始到每个和弦检测基准位置之后50ms结束的时段被提供作为和弦检测定时。在所示示例中,“ms”被用作时段的单位。虽然如此,该单位不限于“ms”,还可以是音符长度。此外,和弦检测基准位置不限于每隔一节拍,还可以是每一节拍。可替代地,例如,响应于速度的变化,和弦检测基准位置可以从每隔一节拍改变为每一节拍。此外,可以不通过节拍来规定和弦检测基准位置,而是通过每个小节的特定位置(例如,每个小节的开端)来规定。此外,可以根据速度值或伴奏风格来确定和弦检测基准位置。另一方面,时间点的示例包括在时段的各种情况中示出的不同的和弦检测基准位置,即,每隔一定的节拍以及每个小节的特定位置。时间点的示例还包括当用户操控包括在设置操作元件2中的某一操作元件时的时间点、或当用户在一定数量的节拍内操控某一操作元件时的时间点。尽管如此,本实施例使用图2中示出的规则作为和弦检测定时设置规则。
其他的规则包括音调信息检测规则(R1)和候选和弦提取规则(R2)。
作为音调信息检测规则(R1),例如可以采用下列规则(R1a)和(R1b):
(R1a)根据该规则,在开始音乐演奏之前用户被询问音调信息以检测(取得)用户响应于该询问而输入的音调信息;以及
(R1b)根据该规则,用户的用于音乐演奏的操作而输入的音乐演奏数据被分析以按需检测音调信息。
在该实施例中,将被用户输入或将被检测出的音调信息由“主音名称+大调/小调”表示。可以使用任何公知的方法作为用于分析音乐演奏数据以检测音调信息的方法。在采用按需检测音调信息的规则的情况下,优选地,在每次检测和弦时(见稍后描述的图8的步骤S76)存储音调信息,使得检测到的音调信息与检测到的和弦相关联。
作为候选和弦提取规则(R2),例如可以采用下列规则(R2a)至(R2c):
(R2a)根据该规则,仅提取音调的自然音阶和弦;
(R2b)根据该规则,提取能够在音调中被使用的所有和弦;以及
(R2c)该规则提取这样的和弦:该和弦被包括在能够用于该音调中的和弦中,并且该和弦的一个或多个构成音符被包括在(后续描述的音符事件列表NList中登记的音符事件信息中的)目标音乐演奏数据中。
各类信息包括音级名称点数表格以及和弦倾向信息。音级名称点数表格的设置是指根据用户的指令从不同类型的表格之中选择表格并且编辑该表格的点数值。和弦倾向信息的设置是指根据用户的指令对存储在和弦倾向信息存储区中的和弦倾向信息进行编辑。
之后,CPU5前进到点数表格读取处理(14)(步骤S5)。在该点数表格读取处理中,CPU5读取上面选择的音级名称点数表格,并将该表格存储在RAM7上提供的点数表格存储区(未示出)中。在该实施例中,如图3所示,音级名称点数表格与和弦优先级点数表格(优先级)合在一起,由此CPU5能够容易地读取该音级名称点数表格。然而,在和弦优先级点数表格被分开提供的情况下,必须不仅读取音级名称点数表格(不具有和弦优先级点数表格),还要读取分开提供的和弦优先级点数表格。
之后,CPU5前进到初始化处理(15)(步骤S6)。在该初始化处理(15)中,CPU5进行初始化,即,将RAM7上提供的各个区域清零,这些区域包括音符事件列表NList、和弦检测定时开始点sTime、和弦检测定时结束点eTime、音调信息Key、和弦列表CList、以及检测出的和弦Chord:
音符事件列表Nlist:在该列表中,列出(登记)了与在和弦检测定时时段内输入的音符-开(note-on)事件对应的音符事件信息(音高+输入定时);
和弦检测定时开始点sTime:用于存储和弦检测定时开始点的区域;
和弦检测定时结束点eTime:用于存储和弦检测定时结束点的区域;
音调信息Key:用于存储基于设置的音调检测规则而检测出的音调信息的区域;
和弦列表CList:在该列表中列出(登记)了基于设置的候选和弦提取规则而提取的候选和弦;以及
检测出的和弦Chord:用于存储从和弦列表CList选择的一个和弦名称的区域。
之后,CPU5前进到和弦检测定时开始点和结束点计算设置处理(16)(步骤S7)。在该和弦检测定时开始点和结束点计算设置处理(16)中,CPU5根据设置的和弦检测定时设置规则算出第一和弦检测定时的开始点和结束点。此外,CPU5在开始点sTime中存储(设置)计算出的开始点,并且在结束点eTime中存储(设置)计算出的结束点。在该实施例中,乐曲的开端节拍(top beat)的节拍位置被定义为和弦检测定时的和弦检测基准位置,其中比该节拍位置提前250ms的时间点被定义为和弦检测定时的开始点。尽管如此,由于乐曲在开端节拍处开始,所以在乐曲的开始时间处算出比乐曲的开始位置早的位置以定义该位置作为开始点sTime是没有意义的。因此,在这种情况下,优选地定义开端节拍的节拍位置,即,和弦检测基准位置作为开始点sTime。然而,在这种情况下,即使早于开端节拍的节拍位置250ms的位置被算出以定义该位置作为原则上的开始点sTime,控制处理也仅会在比定义的开始点晚的时间处开始,并且不会在后续处理上引起任何问题。
如果已经如上所述执行了一次启动处理(1)(步骤S1至S7),则CPU5等待用户的开始自动伴奏的指令。如果用户指示开始自动伴奏,则CPU5进行自动伴奏开始处理(2)(步骤S10)(步骤S9→S10)。在自动伴奏开始处理(2)中,CPU5启动计时器8以让计时器8开始计时。由计时器8计时的时间也被提供至自动伴奏设备9,如上所述。因此,在音乐演奏处理中,如果伴奏风格数据已被选择以进行设置,则处于操作状态下的自动伴奏设备9独立于音乐演奏处理而基于从计时器8提供的计时时间(时间信息)来再现伴奏风格数据。
之后,CPU5响应于音符-开事件的接收而执行音符事件处理(4)(步骤S15)直到接到用户停止自动伴奏的指令(步骤S11→S14→S15)。当计时器8计数达到和弦检测定时(的结束点sTime)时,CPU5执行和弦检测定时处理(5)(步骤S17至S24)(图5B的步骤S16→S17)。
如果用户指示停止自动伴奏,则CPU5进行自动伴奏停止处理(3)(步骤S12)(步骤S11→S12)。在自动伴奏停止处理(3)中,CPU5停止计时器8。结果是,自动伴奏设备9进行的自动伴奏风格数据的再现被停止。
图7是示出音符事件处理(4)(步骤S15)的详细过程的流程图。如图7所示,音符事件处理具有下列处理(41)和(42):
(41):当计时器8正在计数和弦检测定时时段时,即,正在对从开始点sTime到结束时间点eTime范围的时段进行计时时,下列处理(41a)和(41b)被执行:
(41a):音符-开事件已经被接受的情况的处理(步骤S53和S54);以及
(41b):音符-关(note-off)事件已经被接受的情况的处理(步骤S55和S56);以及
(42):当计时器8在计时不是和弦检测定时时段的时间时,下列处理(42a)和(42b)被执行:
(42a):音符-开事件已经被接受的情况的处理(步骤S58);以及
(42b):音符-关事件已经被接受的情况的处理(步骤S59)。
上述处理(41a)(步骤S53和S54)是通过如下方式形成的:将把与音符-开事件对应的音符事件信息(音高+输入定时)添加到音符事件列表NList中的处理增加至上述的处理(42a)(步骤S58)(即,乐音产生处理,通过该乐音产生处理,将接受的音符-开事件输出到乐音产生器/效果电路13)。上述处理(41b)(步骤S55和S56)是通过如下方式形成的:将从音符事件列表NList中删除对应于音符-关事件的音符事件信息(音高+输入定时)的处理增加至上述的处理(42b)(步骤S59)(即,乐音消音处理,通过该乐音消音处理,将接受的音符-关事件输出到乐音产生器/效果电路13)。
下文中,将详细说明上述步骤S54和S56。通过步骤S54,表示接受和弦检测定时的开始点sTime之后的音符-开事件的音符事件信息被增加到音符事件列表NList。通过步骤S56,表示接收和弦检测定时的结束点eTime之前的音符-关事件的音符事件信息从音符事件列表NList删除。因此,在音符事件列表NList中,仅存储有表示在从开始点sTime到结束点eTime范围的时段期间被按下、并且在结束点eTime处仍然保持按下状态的键的音符事件信息。即使存在在结束点eTime处以及之后保持按下状态但却是在开始点sTime之前被按下的键,表示该键的音符事件信息也不会存储在音符事件列表NList中。此外,即使存在在开始点sTime之后被按下但是在结束点eTime之前被释放的键,表示该键的音符事件信息也不会存储在音符事件列表NList中。在这种情况下,通过缩短从开始点sTime到结束点eTime的时段,可以从音符事件列表NList中排除表示错误地按下的键(按下之后马上松开的键)的音符事件信息。
对于步骤S54和S56而言,可以省略步骤S56。在步骤S56被省略的情况下,音符事件列表NList将存储表示从开始时间点sTime到结束时间点eTime时段范围期间被按下的所有键的音符信息。
在和弦检测定时处理(5)(步骤S17至S24)中,CPU5根据通过和弦检测定时、各种规则以及各类信息设置处理(13)(步骤S4)设置的音调检测规则来取得音调信息(步骤S17),并且将取得的音调信息存储在音调信息Key中(步骤S18)。
之后,CPU5根据音调信息Key提取候选和弦(步骤S19)。同样根据通过由和弦检测定时、各种规则以及各类信息设置处理(13)(步骤S4)设置的音调检测规则而设置的候选和弦提取规则来执行候选和弦的提取。之后,CPU5在和弦列表CList上记录在步骤S19处提取的候选和弦(步骤S20)。
之后,CPU5基于音符事件列表NList和和弦列表Clist执行用于检测(选择)一个和弦的和弦检测处理(步骤S21)。图8A和图8B是示出该和弦检测处理的详细过程的流程图。该和弦检测处理主要由处理(21)至(24)形成:
(21)点数计算处理(步骤S63至S71),其用于根据音符事件列表NList和音级名称点数表格,来计算记录在和弦列表CList上的候选和弦中所包括的一个和弦的点数的量;
(22)点数调整处理(步骤72),其用于根据和弦倾向信息来调整通过点数计算处理计算出的点数的量;
(23)存储处理(步骤S73),其用于存储通过点数调整处理调整的点数的量以使得该点数能够与在和弦列表CList上列出的所述一个候选和弦相关联;以及
(24)检测处理(步骤S75和S76),其用于从已经被执行过存储处理的和弦列表CList中检测候选和弦。
当和弦检测处理开始时,CPU5判断是否至少音符事件列表NList或至少和弦列表CList是空的,即,是否至少音符事件列表NList或至少和弦列表CList不具有任何记录的信息。如果确定至少它们中的一个不具有任何信息,则CPU5立刻终止和弦检测处理(步骤S61→返回,或步骤S61→S62→返回)。如果确定它们两者都具有信息,则CPU5进行点数计算处理(21)(步骤S62→S63)。
在点数计算处理(21)(步骤S63至S71)中,CPU5将在和弦列表CList的最开始列出的候选和弦转换为音级名称(步骤S63)。CPU5之后将转换的音级名称存储在RAM7上提供的音级名称存储区DName(未示出)中以存储音级名称(步骤S64)。下文中,存储在音级名称存储区DName中的音级名称被称作“音级名称DName”。
之后,CPU5对RAM7上提供的点数量增加区Point(未示出)进行初始化以便将点数增加到“0”(步骤S65)。下文中,存储在点数量增加区Point中的点数量被称作“点数量Point”。
之后,CPU5提取音符事件列表NList上记录的最开始的一条音符事件信息中包括的音高信息(步骤S66)。之后CPU5将提取的音高信息存储在RAM7上提供的音高信息存储区Note(未示出)中以存储音高信息。下文中,存储在音高信息存储区Note中的音高信息被称作“音高信息Note”。
之后,CPU5提取由音级名称DName表示的和弦中的音高信息Note的角色(步骤S68)。在该步骤中提取的该“角色”是在图3所示的音级名称点数表格中示出的“根音”、“三度音”、“五度音”、“第四音符”、“变化音”、“引伸音”或“其他(避用音等)”。尽管在背景技术说明中描述的上述日本未经审查的专利公开第2012-98480中对提取方法进行了描述,然而将通过参考图9A和图9B将该提取方法描述为角色提取处理。
图9A和图9B示出了步骤S68的角色提取处理的详细过程。在第一步骤F1处,CPU5根据音调信息Key的主音和音级名称DName,来取得与和弦的根音、三度音和五度音(不包括小七减五度以及增音)相对应的音符名称,并且将取得的音符名称存储在RAM7中提供的“根音”寄存器、“三度音”寄存器和“五度音”寄存器中。根据和弦类型来确定根音、三度音和五度音各自距离主音的半音程距离。例如,在音调信息Key是CMajor,音级名称为IVMaj7的情况下,“根音”是F,“三度音”是A,以及“五度音”是C。
在下一步骤F2处,CPU5判断音高信息Note的音符名称是否等于“根音”寄存器的值。如果音符名称等于“根音”寄存器的值(F2=是),则CPU5在步骤F3处将音高信息Note的角色定义为“根音”。如果不相等(F2=否),则CPU5前进到步骤F4。在步骤F4处,CPU5判断音高信息Note的音符名称是否等于“三度音”寄存器的值。如果音符名称等于“三度音”寄存器的值(F4=是),则CPU5在步骤F5处将音高信息Note定义为“三度音”。如果不相等(F4=否),则CPU5前进到步骤F6。在步骤F6处,CPU5判断音高信息Note的音符名称是否等于“五度音”寄存器的值。如果音符名称等于“五度音”寄存器的值(F6=是),则CPU5在步骤F7处将音高信息Note定义为“五度音”。如果不相等(F6=否),则CPU5前进到步骤F8。在步骤F3、F5以及F7之后,CPU5终止角色提取处理以返回到图8的和弦检测处理的步骤S69。
在步骤F8处,CPU5判断音级名称DName的和弦类型是否是(小七降五度)。如果和弦类型是(F8=是),则CPU5前进到步骤F9以判断音高信息Note的音符名称是否是距“根音”寄存器的音符名称的减五度音。如果音高信息Note的音符名称是减五度音(F9=是),则CPU5在步骤F10处将音高信息Note的角色定义为“变化音”。另一方面,如果和弦类型不是(F8=否),则CPU5前进到步骤F11以判断音级名称DName的和弦类型是否是“aug”(增音)。如果和弦类型是“aug”(F11=是),则CPU5前进到步骤F12以判断音高信息Note的音符名称是否是距“根音”寄存器的音符名称的增五度音(#5th)。如果音高信息Note的音符名称是增五度音(F12=是),则CPU5在步骤F10处将音高信息Note定义为“变化音”。在步骤F10之后,CPU5终止角色提取处理以返回到图8的和弦检测处理的步骤S69。
如果在步骤F11处判断和弦类型不是“aug”(F11=否),则CPU5前进到步骤F13(图9B)以判断音级名称DName的和弦类型是否是“6”、“6sus4”(6挂4),或“m6”(小调6)。如果和弦类型是“6”、“6sus4”,或“m6”(F13=是),则CPU5前进到步骤F14以判断音高信息Note的音符名称是否是距“根音”寄存器的音符名称的大六度音(6th)。如果音高信息Note的音符名称是大六度音(F14=是),则CPU5在步骤F15处将音高信息Note的角色定义为“第四音符”。如果在步骤F13处判断出和弦类型不是“6”、“6sus4”,或“m6”(F13=否),则CPU5前进到步骤F16以判断音级名称DName的和弦类型是否是诸如“I Maj7”(第一音级上的大7)和“IV mMaj7”(第四音级上的小大7)之类的Maj7(大7)。如果和弦类型是Maj7(F16=是),则CPU5前进到步骤F17以判断音高信息Note的音符名称是否是距“根音”寄存器的音符名称的大七度音(Maj7th)。如果音高信息Note的音符名称是大七度音(F17=是),则CPU5在步骤F15处将音高信息Note的角色定义为“第四音符”。如果在步骤F16处判断和弦类型不是Maj7(F16=否),则CPU5前进到步骤F18以判断音级名称DName的和弦类型是否是诸如“II m7”(在第二音级上的小7)、“V7”(在第五音级上的七度音)以及“VII7sus4”(在第七音级上的7挂4和弦)之类的m7(小7)或7th(七度音)。如果和弦类型是m7或七度音(F18=是),则CPU5前进到步骤19以判断音高信息Note的音符名称是否是距“根音”寄存器的音符名称的小七度音(七度音)。如果音高信息Note的音符名称是小七度音(F19=是),则CPU5在步骤F15处将音高信息Note的角色定义为“第四音符”。在步骤F10之后,CPU5终止角色提取处理以返回到图8的和弦检测处理的步骤S69。
如果在步骤F9处判断音高信息Note的音符名称不是减五度音(F9=否),如果在步骤F12处判断音符名称不是增五度音(F12=否),如果在步骤F14处判断音符名称不是大六度音(F14=否),如果在步骤F17处判断音符名称不是大七度音(F17=否),如果在步骤F18处判断音符名称既不是m7也不是7(F18=否),或者如果在步骤F19处判断音符名称不是小七度音(F19=否),则CPU5前进到步骤F20以判断音高信息Note的音符名称是否是用于由当前音调Key的音级名称DName表示的和弦的引伸音。根据和弦类型(9th、#9th、11th、#11th、以及13th中的一至三个)确定引伸音各自距离根音的半音程距离。例如,在调信息Key是CMajor,且音级名称是IV Maj7的情况下,引伸音是G、B和D。如果判断出音高信息Note的音符名称是引伸音(F20=是),则CPU5前进到步骤F21以将音高信息Note的角色定义为“引伸音”。如果判断音高信息Note的音符名称不是引伸音(F20=否),则CPU5前进到步骤F22以将音高信息Note的角色定义为“其他”。在步骤F21或F22之后,CPU5终止角色提取处理以返回到图8的和弦检测处理的步骤S69。
在图8的角色提取处理步骤S68之后,CPU5参考由音调信息Key表示的音调的音级名称点数表格(用于音调信息Key的点数表格),取得对应于提取的角色的点数值,并将取得的点数值添加到点数量Point(步骤S69)。由于此时点数量Point为“0”,所以在步骤S69处取得的点数值被直接取作点数量Point。
之后,CPU5随着目标音符事件信息的变化重复上述的步骤S66至S69直到在音符事件列表NList中包括的最后一条音符事件信息的音高信息(步骤S70→S66)。当CPU5处理了包括在音符事件列表NList中的最后一条音符事件信息的音高信息以进行了步骤S70时,CPU5前进到下一步S71。
在步骤S71处,CPU5参考由音调信息Key表示的音调的音级名称点数表格(用于音调信息Key的点数表格),取得由音级名称DName表示的和弦的优先级点数,并将取得的点数增加到点数量Point。尽管在和弦优先级点数表格(优先级栏,Prior)中描述了优先级点数,和弦优先级点数表格(优先级)被包括在如上述的音级名称点数表格中。因此,优先级点数将从音级名称点数表格中取得,即,从用于音调信息Key的点数表格中取得。
之后,CPU5进行点数调整处理(22)(步骤S72)。在该点数调整处理(22)中,CPU5基于和弦倾向信息来调整点数的量Point如下。
(22a)在由音级名称DName表示的和弦被包括在和弦倾向信息中的“很可能出现的音级名称”中的情况下,在点数的量Point中反映了与可能性对应的特定值。在由音级名称DName表示的和弦被包括在和弦倾向信息中的“不太可能出现的音级名称”中的情况下,在点数的量Point中反映了与不可能性对应的特定值。
(22b)在由音级名称DName表示的调式音级被包括在和弦倾向信息中的“很可能出现的和弦根音的调式音级”中的情况下,在点数的量Point中反映了与可能性对应的特定值。在由音级名称DName表示的调式音级被包括在和弦倾向信息中的“不太可能出现的和弦根音的调式音级”中的情况下,在点数的量Point中反映了与不可能性对应的特定值。
(22c)在由音级名称DName表示的和弦类型被包括在和弦倾向信息中的“很可能出现的和弦类型”中的情况下,在点数的量Point中反映了与可能性对应的特定值。在由音级名称DName表示的和弦类型被包括在和弦倾向信息中的“不太可能出现的和弦类型”中的情况下,在点数的量Point中反映了与不可能性对应的特定值。
(22d)在由音级名称DName表示的和弦功能被包括在和弦倾向信息中的“很可能出现的功能”中的情况下,在点数的量Point中反映了与可能性对应的特定值。在由音级名称DName表示的和弦功能被包括在和弦倾向信息中的“不太可能出现的功能”中的情况下,在点数的量Point中反映了与不可能性对应的特定值。
术语“反映”意即进行调整以增加用于那些“很可能出现”的点数的量Point,同时术语“反映”意即进行调整以减少用于那些“不太可能出现”的点数的量Point。在图4的(c)的和弦倾向信息中,那些“很可能出现”的出现率用百分比(%)表示(然而,由于“功能”仅可能为一种,因此其未用出现率表示。虽然如此,和弦出现率能够假定为100%),而针对那些“不太可能出现”没有表示出现率。通过使用和弦倾向信息,点数的量Point将被按照如下调整,例如:
在那些“很可能出现”的情况下:点数+Tm×Rmn/100
在那些“不太可能出现”的情况下:点数-Km
在上述情况中,Tm、Rmn以及Km被定义为如下:
Tm:针对第m项(“音级名称”、“和弦根音的调式音级”、“和弦类型”以及“功能”中的任一项)将要添加的总点数量;
Rmn:音级名称DName所表示的属于第m项的第n元素的出现率(%);以及
Km:针对第m项将要被减去的点数量。
更具体地,在上述情况(22a)至(22d)中用于那些“很可能出现”的“特定值”是“Tm×Rmn/100”,而用于哪些“不太可能出现”的“特定值”是“Km”。结果是,“点数的量Point+Tm×Rmn/100”,以及“点数的量Point-Km”是表示和弦出现概率的指数,即,和弦出现的可能性和和弦出现的不可能性。
在由音级名称DName表示的和弦被包括在“音级名称”项中表示的和弦中的情况下,由音级名称DName表示的调式音级和和弦类型分别包括在条目“和弦根音的调式音级”和“和弦类型”中。然而,在这种情况中,点数的量Point可以在每个项中进行调整。可替代地,点数的量Point可以只在这些项的一个中进行调整而在其他项中省略调整(不调整)。尽管“功能”项在图4的(c)的示例中示出了单个功能,但是该项可以示出多个功能的进行。然而,在该情况下,必须记录检测出的和弦Chord和音调信息Key中的改变历史。
此外,可以不必基于出现率来算出“特定值”,而可以通过把将被增加的点数的量与包括在每个项中的每个元素相关联来算出“特定值”,使得可以简单地添加对应于元素的点数量。更具体地,在项目中,排名在作为“很可能出现”的第一位的元素与+20点数相关联,排名在第二位的元素与+10点数相关联,以此类推,而那些定义为“不太可能出现”的元素全都与-10点数相关联。当然,定义为“不太可能出现”的元素同样可以被排名使得这些元素能够根据排名具有不同的点数。此外,“特定值”可以不通过加法/减法而是通过乘法/除法反映。
之后,CPU5前进到存储处理(23)(步骤S73)以存储如上所述调整的点数的量Point,使得点数的量能够与由和弦列表CList的音级名称DName表示的和弦相关联。
之后,CPU5随着目标和弦的变化重复上述的处理(21)至(23)(步骤S63至S73)直到由和弦列表CList的音级名称DName表示的最后一个和弦(步骤S74→S63)。当CPU5处理了包括在和弦列表CList中的音级名称DName所表示的最后一个和弦从而进行了步骤S74时,CPU5前进到检测处理(24)(步骤S75和S76)。
在该检测处理(24)中,从存储在和弦列表CList中(由此各候选和弦与它们各自的点数的量Point相关联)的候选和弦之中,CPU5检测具有最高点数的量Point的一个候选和弦(步骤S75),将检测到的该和弦定义为检测出的和弦Chord(步骤S76),并终止和弦检测处理。在存在两个或更多的具有最高点数的量Point的候选和弦的情况下,CPU5将在步骤S75处检测一个候选和弦。然而,在该情况下,将添加诸如最高检测频率或最高和弦优先级点数之类的附加条件,以确定一个候选和弦。
CPU5返回图5B以将检测出的和弦Chord输出至自动伴奏设备9(步骤S22)。
根据和弦检测定时的设置(设置规则),CPU5之后算出下一个和弦检测时段的开始点和结束点,更新开始点sTime和结束点eTime(步骤S23),并初始化(清零)音符事件列表NList和和弦列表CList(步骤S24)。
在该实施例中,乐曲的选择通过如下方式进行:通过对操作元件(设置操作元件2或演奏操作元件1)的操控或触摸操控来选择显示在本实施例的和弦检测设备中所包括的显示装置10上的标题列表上列出的期望的乐曲的标题。然而,与和弦检测设备分开地提供的显示装置可以通过有线或无线连接与和弦检测设备连接,使得用户能够选择显示装置上的乐曲。此外,对乐曲的选择可以不通过显示器屏幕来进行,例如,使用这样的方案:将诸如用于直接选择乐曲的按钮之类的操作元件和标题列表的小册子提供给用户,以允许用户通过以与乐曲的标题编号相等的次数对操作元件进行操控来选择期望的乐曲。换句话说,只要用户能够通过一些方案选择乐曲,显示装置10或等同物并非对于本发明是不可缺少的。
此外,在这个实施例中,基于通过用户的音乐演奏输入的音乐演奏数据来提取候选和弦,以从提取的候选和弦中检测和弦。然而,该实施例可以被修改为不用提取候选和弦而直接检测和弦。在该改型中,作为用于检测和弦的方法,可以采用检测出其和弦构成音符与通过音乐演奏输入的音符之间的比例最高的和弦的方法,或者可以采用通过将高优先级赋予当前音调的自然音阶和弦来检测和弦的方法。对于此类方法,可以应用基于根据本发明的和弦倾向信息的和弦检测。例如,判断检测出的和弦是否匹配和弦倾向信息。如果不匹配,则将会检测不同的和弦以判断该不同的和弦是否匹配该和弦倾向信息。在存在多条和弦信息能够被参考用于目标乐曲的情况下,可以检测与演奏乐曲的音调相对应的和弦。此外,可以对和弦检测进行修改以考虑平滑地连接此前检测的先前和弦。
此外,在该实施例中,在预定的时段内由用户的音乐演奏输入的音乐演奏数据被用于和弦检测。然而,可以通过仅使用预定定时的音乐演奏数据来完成和弦检测。在该情况下,用户在预定定时中按下的键的音乐演奏数据被输入以使用该输入的音乐演奏数据用于和弦检测。
此外,在该实施例中,如图4中的(c)所示,和弦倾向信息具有四种类型“音级名称”、“和弦根音的调式音级”、“和弦类型”以及“功能”,由此能够使用所有类型的和弦倾向信息。然而,该实施例可以被修改使得和弦倾向信息具有四种类型的至少一种以使用至少一个类型的和弦倾向信息。
此外,在该实施例中,针对每首乐曲提供和弦倾向信息。然而,该实施例可以被修改使得用户能够按需定义和弦倾向信息。此外,在该实施例中,在音乐演奏设置数据中描述了和弦倾向信息存储的位置。然而,本实施例可以被修改为使得在音乐演奏设置数据中描述(存储)和弦倾向信息本身。尽管在该实施例中和弦倾向信息被应用到从开始到结束的整个乐曲,但是该实施例可以被修改为使得乐曲的每段具有不同种类的和弦倾向信息。
在如上述的实施例中,关于针对每首乐曲提供的音乐演奏设置数据,描述了伴奏风格数据、旋律音色、速度等。然而,在音乐演奏设置数据上,也可以记录有用于整个乐曲的和弦进行信息和用户的音乐演奏中涉及的和弦检测结果。在该情况下,优选地,通过使用记录的和弦进行信息作为强烈推荐的和弦,控制和弦检测使得合适的和弦能够被检测以适合用户的音乐演奏。此外,针对每首乐曲,可以提供诸如伴奏风格数据和旋律音色之类的音乐演奏设置数据组。在该情况下,用户可以被允许选择要使用的音乐演奏设置数据组。可替代地,如果音乐演奏的速度在各音乐演奏设置数据组之中不同,则可以根据先前设置的用户的音乐演奏等级或者根据基于用户的先前音乐演奏的判断来自动地选择音乐演奏设置数据组。音乐演奏设置数据可以存储在和弦检测设备自身中、或与和弦检测设备分开地提供的存储介质中、或运行和弦检测程序的设备中。可替代地,可以经由网络参考音乐演奏设置数据。
在适合乐曲的和弦进行信息未被存储为音乐演奏设置数据的一部分的情况下,优选地通过一些方案获取和弦进行信息。例如,可以对设备的存储部分(存储装置11、以及ROM6和RAM7)或经由网络的服务器进行搜索以找出能够用于乐曲的内容数据,以参考记录在找出的内容数据上的和弦进行信息。可替代地,可以对能够用于乐曲的内容数据的和弦部分和基础部分进行分析以获取和弦进行信息。
此外,显而易见的是,本发明的目标能够通过以下方式实现:将存储实现上述实施例的功能的软件的程序代码的存储媒介提供给系统或设备以允许系统或设备的计算机(或CPU和MPU)读取和执行存储在存储介质中的程序代码。
在该情况下,从存储介质读出的程序代码自身将实现本发明的新颖功能,同时程序代码和存储该程序代码的存储介质将构成本发明。
用于提供程序代码的存储介质可以是软盘、硬盘、磁光盘、CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD+RW、磁带、非易失性存储卡、ROM等等。可替代地,程序代码可以经由通信网络从服务器计算机提供。
此外,显而易见的是,不仅能够通过执行读出的程序代码的计算机来实现上述实施例的功能,而且能够通过在计算机等上运行的操作系统(OS)以根据程序代码的指令而执行部分或全部的实际处理使得通过该处理实现实施例的功能。
此外,显而易见的是,在计算机中插入的功能扩展板或连接至计算机的功能扩展单元上提供的存储器中写入从存储介质读出的程序代码之后,在功能扩展板或功能扩展单元上提供的CPU能够根据程序代码的指令执行部分的实际处理或全部的实际处理,从而通过该处理实现上述实施例的功能。
Claims (12)
1.一种和弦检测设备包括:
音乐演奏数据取得装置,其用于取得表示用户演奏的音乐演奏的音乐演奏数据;
乐曲信息取得装置,其用于取得表示用户演奏的乐曲的乐曲信息;
和弦倾向信息取得装置,其用于取得表示和弦出现在所述乐曲中的可能性和不可能性等级的和弦倾向信息;以及
和弦检测装置,其用于基于由所述音乐演奏数据取得装置取得的音乐演奏数据和由所述和弦倾向信息取得装置取得的和弦倾向信息来检测和弦。
2.根据权利要求1所述的和弦检测设备,其中
所述音乐演奏数据取得装置取得在预定的时段期间或在预定的定时所演奏的音乐演奏数据。
3.根据权利要求1所述的和弦检测设备,其中
所述和弦倾向信息表示和弦的可能性或者不可能性等级以便与和弦名称、和弦根音的调式音级、和弦类型以及和弦功能中的至少一个要素相关联。
4.根据权利要求1所述的和弦检测设备,其中
所述和弦倾向信息取得装置通过读出预先以和弦倾向信息与乐曲相关联的方式而存储的和弦倾向信息来取得对应于所述乐曲的和弦倾向信息。
5.根据权利要求1所述的和弦检测设备,其中
所述和弦倾向信息取得装置通过对预先存储以便与乐曲相关联的和弦信息或音乐演奏信息进行分析来取得对应于所述乐曲的和弦倾向信息。
6.根据权利要求1至5中任意一项所述的和弦检测设备,其中
所述和弦检测装置包括:
候选提取装置,其用于提取多个候选和弦;以及
第一反映装置,其用于反映由所述候选提取装置提取的各个候选和弦中的由所述和弦倾向取得装置取得的所述和弦倾向信息;并且,
所述和弦检测装置检测所述和弦倾向信息已被所述第一反映装置反映的候选和弦中的一个。
7.根据权利要求6所述的和弦检测设备,其中
所述候选提取装置根据所述乐曲的音调来提取候选和弦。
8.根据权利要求7所述的和弦检测设备,其中
所述乐曲的音调由用户输入,或者通过对由所述音乐演奏数据取得装置取得的音乐演奏数据进行分析而取得。
9.根据权利要求8所述的和弦检测设备,其中
所述候选提取装置提取输入或取得的音调的仅自然音阶和弦、所有能够在输入或取得的音调中使用的和弦、或者能够在输入或取得的音调中使用并且每一个都具有包括在所述音乐演奏数据中的一个或多个音符的和弦,作为所述候选和弦。
10.根据权利要求6所述的和弦检测设备,其中
所述和弦检测装置还包括第二反映装置,其用于通过使用由所述音乐演奏数据取得装置取得的音乐演奏数据,来检测由所述音乐演奏数据表示的音符对于由所述候选提取装置提取的每个候选和弦的各个重要性等级,并且反映所述候选和弦中的所检测到的重要性等级;并且
所述和弦检测装置从所述重要性等级也已被所述第二反映装置反映的候选和弦之中检测一个和弦。
11.根据权利要求6所述的和弦检测设备,其中
所述和弦检测装置还包括第三反映装置,其用于反映由所述候选提取装置提取的候选和弦自身在各个候选和弦中的优先级等级;并且
所述和弦检测装置从候选和弦的各自的优先级等级也已被所述第三反映装置反映的候选和弦之中检测一个和弦。
12.一种用于检测和弦的方法,包括步骤:
音乐演奏数据取得步骤,用于取得表示用户演奏的音乐演奏的音乐演奏数据;
乐曲信息取得步骤,用于取得表示用户演奏的乐曲的乐曲信息;
和弦倾向信息取得步骤,用于取得表示和弦出现在所述乐曲中的可能性或不可能性等级的和弦倾向信息;
和弦检测步骤,用于基于通过所述音乐演奏数据取得步骤取得的音乐演奏数据和通过所述和弦倾向信息取得步骤取得的和弦倾向信息来检测和弦。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013036869 | 2013-02-27 | ||
JP2013-036869 | 2013-02-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104008747A true CN104008747A (zh) | 2014-08-27 |
Family
ID=50115754
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410067031.9A Pending CN104008747A (zh) | 2013-02-27 | 2014-02-26 | 用于检测和弦的设备和方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9117432B2 (zh) |
EP (1) | EP2772904B1 (zh) |
JP (1) | JP2014194536A (zh) |
CN (1) | CN104008747A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105761713A (zh) * | 2016-01-29 | 2016-07-13 | 北京精奇互动科技有限公司 | 和弦变换处理方法和装置 |
CN105845115A (zh) * | 2016-03-16 | 2016-08-10 | 腾讯科技(深圳)有限公司 | 歌曲调式确定方法及歌曲调式确定装置 |
CN107301857A (zh) * | 2016-04-15 | 2017-10-27 | 青岛海青科创科技发展有限公司 | 一种给旋律自动配伴奏的方法及系统 |
CN107871489A (zh) * | 2016-09-28 | 2018-04-03 | 卡西欧计算机株式会社 | 和弦判定装置、和弦判定方法以及非暂时性的记录介质 |
CN111052220A (zh) * | 2017-09-07 | 2020-04-21 | 雅马哈株式会社 | 和弦信息提取装置、和弦信息提取方法及和弦信息提取程序 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2772904B1 (en) * | 2013-02-27 | 2017-03-29 | Yamaha Corporation | Apparatus and method for detecting music chords and generation of accompaniment. |
JP6179140B2 (ja) | 2013-03-14 | 2017-08-16 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
JP6040809B2 (ja) * | 2013-03-14 | 2016-12-07 | カシオ計算機株式会社 | コード選択装置、自動伴奏装置、自動伴奏方法および自動伴奏プログラム |
JP6123995B2 (ja) * | 2013-03-14 | 2017-05-10 | ヤマハ株式会社 | 音響信号分析装置及び音響信号分析プログラム |
US9672800B2 (en) | 2015-09-30 | 2017-06-06 | Apple Inc. | Automatic composer |
US9824719B2 (en) | 2015-09-30 | 2017-11-21 | Apple Inc. | Automatic music recording and authoring tool |
US9804818B2 (en) | 2015-09-30 | 2017-10-31 | Apple Inc. | Musical analysis platform |
US9852721B2 (en) * | 2015-09-30 | 2017-12-26 | Apple Inc. | Musical analysis platform |
JP6708180B2 (ja) * | 2017-07-25 | 2020-06-10 | ヤマハ株式会社 | 演奏解析方法、演奏解析装置およびプログラム |
CN107436953B (zh) * | 2017-08-15 | 2020-07-10 | 中国联合网络通信集团有限公司 | 一种音乐搜索方法及系统 |
JP7230464B2 (ja) * | 2018-11-29 | 2023-03-01 | ヤマハ株式会社 | 音響解析方法、音響解析装置、プログラムおよび機械学習方法 |
CN110930970B (zh) * | 2019-12-03 | 2023-12-05 | 上海观池文化传播有限公司 | 一种基于信号触发的音乐和弦发生装置及方法 |
JP7409366B2 (ja) * | 2021-12-15 | 2024-01-09 | カシオ計算機株式会社 | 自動演奏装置、自動演奏方法、プログラム、及び電子楽器 |
CN115132155A (zh) * | 2022-05-12 | 2022-09-30 | 天津大学 | 一种基于声调音高空间的预测和弦解释音符的方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003177752A (ja) * | 1996-11-25 | 2003-06-27 | Yamaha Corp | 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体 |
JP2007086570A (ja) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | 自動伴奏装置及びプログラム |
CN101740013A (zh) * | 2008-11-21 | 2010-06-16 | 索尼株式会社 | 信息处理设备、声音分析方法和程序 |
CN102148027A (zh) * | 2010-02-04 | 2011-08-10 | 卡西欧计算机株式会社 | 自动伴奏装置 |
CN102419969A (zh) * | 2010-09-27 | 2012-04-18 | 卡西欧计算机株式会社 | 调判断装置 |
JP2012098480A (ja) * | 2010-11-01 | 2012-05-24 | Yamaha Corp | コード検出装置及びプログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5852252A (en) * | 1996-06-20 | 1998-12-22 | Kawai Musical Instruments Manufacturing Co., Ltd. | Chord progression input/modification device |
US5850051A (en) * | 1996-08-15 | 1998-12-15 | Yamaha Corporation | Method and apparatus for creating an automatic accompaniment pattern on the basis of analytic parameters |
US5918303A (en) | 1996-11-25 | 1999-06-29 | Yamaha Corporation | Performance setting data selecting apparatus |
EP1816639B1 (en) * | 2004-12-10 | 2013-09-25 | Panasonic Corporation | Musical composition processing device |
WO2007011308A1 (en) * | 2005-07-22 | 2007-01-25 | Agency For Science, Technology And Research | Automatic creation of thumbnails for music videos |
JP4465626B2 (ja) * | 2005-11-08 | 2010-05-19 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
JP4650270B2 (ja) * | 2006-01-06 | 2011-03-16 | ソニー株式会社 | 情報処理装置および方法、並びにプログラム |
TW200727170A (en) * | 2006-01-09 | 2007-07-16 | Ulead Systems Inc | Method for generating a visualizing map of music |
US7705231B2 (en) * | 2007-09-07 | 2010-04-27 | Microsoft Corporation | Automatic accompaniment for vocal melodies |
JP4333700B2 (ja) * | 2006-06-13 | 2009-09-16 | ソニー株式会社 | 和音推定装置及び方法 |
JP4108719B2 (ja) * | 2006-08-30 | 2008-06-25 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及びゲーム装置 |
US20100198760A1 (en) * | 2006-09-07 | 2010-08-05 | Agency For Science, Technology And Research | Apparatus and methods for music signal analysis |
US8168877B1 (en) * | 2006-10-02 | 2012-05-01 | Harman International Industries Canada Limited | Musical harmony generation from polyphonic audio signals |
JP4315180B2 (ja) * | 2006-10-20 | 2009-08-19 | ソニー株式会社 | 信号処理装置および方法、プログラム、並びに記録媒体 |
JP4214491B2 (ja) * | 2006-10-20 | 2009-01-28 | ソニー株式会社 | 信号処理装置および方法、プログラム、並びに記録媒体 |
JP5625235B2 (ja) * | 2008-11-21 | 2014-11-19 | ソニー株式会社 | 情報処理装置、音声解析方法、及びプログラム |
JP5206378B2 (ja) * | 2008-12-05 | 2013-06-12 | ソニー株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP5282548B2 (ja) * | 2008-12-05 | 2013-09-04 | ソニー株式会社 | 情報処理装置、音素材の切り出し方法、及びプログラム |
JP5593608B2 (ja) * | 2008-12-05 | 2014-09-24 | ソニー株式会社 | 情報処理装置、メロディーライン抽出方法、ベースライン抽出方法、及びプログラム |
US9177540B2 (en) * | 2009-06-01 | 2015-11-03 | Music Mastermind, Inc. | System and method for conforming an audio input to a musical key |
US8785760B2 (en) * | 2009-06-01 | 2014-07-22 | Music Mastermind, Inc. | System and method for applying a chain of effects to a musical composition |
US9257053B2 (en) * | 2009-06-01 | 2016-02-09 | Zya, Inc. | System and method for providing audio for a requested note using a render cache |
US9293127B2 (en) * | 2009-06-01 | 2016-03-22 | Zya, Inc. | System and method for assisting a user to create musical compositions |
US9310959B2 (en) * | 2009-06-01 | 2016-04-12 | Zya, Inc. | System and method for enhancing audio |
US9251776B2 (en) * | 2009-06-01 | 2016-02-02 | Zya, Inc. | System and method creating harmonizing tracks for an audio input |
US8779268B2 (en) * | 2009-06-01 | 2014-07-15 | Music Mastermind, Inc. | System and method for producing a more harmonious musical accompaniment |
CN101950377A (zh) * | 2009-07-10 | 2011-01-19 | 索尼公司 | 新型马尔可夫序列生成器和生成马尔可夫序列的新方法 |
US20140330900A1 (en) * | 2011-11-23 | 2014-11-06 | Evernote Corporation | Encounter-driven personal contact space |
US9459768B2 (en) * | 2012-12-12 | 2016-10-04 | Smule, Inc. | Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters |
EP2772904B1 (en) * | 2013-02-27 | 2017-03-29 | Yamaha Corporation | Apparatus and method for detecting music chords and generation of accompaniment. |
-
2014
- 2014-02-20 EP EP14155881.7A patent/EP2772904B1/en not_active Not-in-force
- 2014-02-21 JP JP2014031883A patent/JP2014194536A/ja active Pending
- 2014-02-26 CN CN201410067031.9A patent/CN104008747A/zh active Pending
- 2014-02-27 US US14/191,803 patent/US9117432B2/en not_active Expired - Fee Related
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003177752A (ja) * | 1996-11-25 | 2003-06-27 | Yamaha Corp | 演奏設定データ選択装置、演奏設定データ選択方法及び記録媒体 |
JP2007086570A (ja) * | 2005-09-26 | 2007-04-05 | Yamaha Corp | 自動伴奏装置及びプログラム |
CN101740013A (zh) * | 2008-11-21 | 2010-06-16 | 索尼株式会社 | 信息处理设备、声音分析方法和程序 |
CN102148027A (zh) * | 2010-02-04 | 2011-08-10 | 卡西欧计算机株式会社 | 自动伴奏装置 |
CN102419969A (zh) * | 2010-09-27 | 2012-04-18 | 卡西欧计算机株式会社 | 调判断装置 |
JP2012098480A (ja) * | 2010-11-01 | 2012-05-24 | Yamaha Corp | コード検出装置及びプログラム |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105761713A (zh) * | 2016-01-29 | 2016-07-13 | 北京精奇互动科技有限公司 | 和弦变换处理方法和装置 |
CN105845115A (zh) * | 2016-03-16 | 2016-08-10 | 腾讯科技(深圳)有限公司 | 歌曲调式确定方法及歌曲调式确定装置 |
CN105845115B (zh) * | 2016-03-16 | 2021-05-07 | 腾讯科技(深圳)有限公司 | 歌曲调式确定方法及歌曲调式确定装置 |
CN107301857A (zh) * | 2016-04-15 | 2017-10-27 | 青岛海青科创科技发展有限公司 | 一种给旋律自动配伴奏的方法及系统 |
CN107871489A (zh) * | 2016-09-28 | 2018-04-03 | 卡西欧计算机株式会社 | 和弦判定装置、和弦判定方法以及非暂时性的记录介质 |
CN111052220A (zh) * | 2017-09-07 | 2020-04-21 | 雅马哈株式会社 | 和弦信息提取装置、和弦信息提取方法及和弦信息提取程序 |
CN111052220B (zh) * | 2017-09-07 | 2023-06-27 | 雅马哈株式会社 | 和弦信息提取装置、和弦信息提取方法及存储装置 |
Also Published As
Publication number | Publication date |
---|---|
US9117432B2 (en) | 2015-08-25 |
EP2772904A1 (en) | 2014-09-03 |
US20140238220A1 (en) | 2014-08-28 |
JP2014194536A (ja) | 2014-10-09 |
EP2772904B1 (en) | 2017-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104008747A (zh) | 用于检测和弦的设备和方法 | |
Goto et al. | Songle: A Web Service for Active Music Listening Improved by User Contributions. | |
US7034217B2 (en) | Automatic music continuation method and device | |
JP4199097B2 (ja) | 楽曲自動分類装置及び方法 | |
CN101916568B (zh) | 信息处理设备、信息处理方法 | |
CN101796587B (zh) | 声音旋律的自动伴奏 | |
JP3484986B2 (ja) | 自動作曲装置、自動作曲方法および記憶媒体 | |
CN106708894B (zh) | 电子书配置背景音乐的方法和装置 | |
JPH11237881A (ja) | 自動作曲装置と記録媒体 | |
CN103093747B (zh) | 自动调修正装置及自动调修正方法 | |
CN104036764A (zh) | 乐音信息处理设备和方法 | |
JP3577561B2 (ja) | 演奏分析装置及び演奏分析方法 | |
CN110134823B (zh) | 基于归一化音符显马尔可夫模型的midi音乐流派分类方法 | |
JP5085577B2 (ja) | プレイリスト作成装置、楽曲再生装置、プレイリスト作成方法およびプレイリスト作成プログラム | |
Edwards et al. | PiJAMA: Piano Jazz with Automatic MIDI Annotations | |
JP3835456B2 (ja) | 自動作曲装置および記憶媒体 | |
WO2022044646A1 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
Tauscher et al. | Audio Resynthesis on the Dancefloor: A Music Structural Approach. | |
Hawkins | Automating Music Production with Music Information Retrieval | |
KR102490769B1 (ko) | 음악적 요소를 이용한 인공지능 기반의 발레동작 평가 방법 및 장치 | |
US20230410676A1 (en) | Information processing system, electronic musical instrument, information processing method, and machine learning system | |
JP6525034B2 (ja) | コード進行情報生成装置およびコード進行情報生成方法を実現するためのプログラム | |
DeAmon | Predicting and Composing a Top Ten Billboard Hot 100 Single with Descriptive Analytics and Classification | |
Ramos | Capturing Musical Prosody Through Interactive Audio/Visual Annotations | |
JP3610017B2 (ja) | 事例に基づく編曲処理方法,事例に基づく編曲処理プログラムおよび事例に基づく編曲処理プログラムの記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140827 |