CN101859559B - 音乐演奏设备和音乐演奏设备的操作方法 - Google Patents

音乐演奏设备和音乐演奏设备的操作方法 Download PDF

Info

Publication number
CN101859559B
CN101859559B CN2010101455650A CN201010145565A CN101859559B CN 101859559 B CN101859559 B CN 101859559B CN 2010101455650 A CN2010101455650 A CN 2010101455650A CN 201010145565 A CN201010145565 A CN 201010145565A CN 101859559 B CN101859559 B CN 101859559B
Authority
CN
China
Prior art keywords
timeline
sound
line
search
search condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2010101455650A
Other languages
English (en)
Other versions
CN101859559A (zh
Inventor
神谷泰史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2009093978A external-priority patent/JP5532659B2/ja
Priority claimed from JP2010056129A external-priority patent/JP5509948B2/ja
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN101859559A publication Critical patent/CN101859559A/zh
Application granted granted Critical
Publication of CN101859559B publication Critical patent/CN101859559B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/135Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供一种音乐演奏设备和音乐演奏设备的操作方法,在音乐演奏设备中,时间线管理处理部分根据操作单元的操作来在显示单元上显示一条或多条时间线,每条时间线是代表在一段音乐中重复的一个或多个声音的序列的持续时间的图像。对象管理处理部分根据操作单元的操作来在显示单元上显示一个或多个对象,每个对象是对应于并代表要产生的声音的符号。音乐演奏处理部分确定每个对象对显示部分上显示的一条或多条时间线的从属关系,并在对应于每条时间线的持续时间中针对每条时间线同时地并独立地重复进行产生对应于每个对象的声音的控制,以使得在根据相应对象在该相应对象所属的时间线的长度方向上的位置而确定的声音产生定时处产生每个声音。

Description

音乐演奏设备和音乐演奏设备的操作方法
技术领域
本发明涉及一种有助于制作音乐作品的技术。本发明还涉及有助于对用于制作音乐的声音素材进行搜索的技术。 
背景技术
随着所谓的桌面音乐(Desk Top Music,DTM)的普及,已经提供了称作“循环音序器(loop sequencer)”的各种音乐创作应用程序。循环音序器是一种通过将声音样本(其为诸如与一段音乐的前奏对应的一个小节、和与鼓独奏对应的四个小节之类的该段音乐的部分时间片断的声波)映射到时间轴上以产生一个乐句并且重复再现所产生的乐句的程序。循环音序器提供一个允许用户对一段音乐中包含的乐句的一个乐段规定声音排布的编辑屏幕。当用户已经通过该编辑屏幕规定了声音排布时,就通过循环音序器演奏对作为乐句的一个乐段的该声音排布进行重复的一段音乐。涉及此类循环音序器的示例参考文献是日本专利申请公开No.2008-225200。 
在一些情况下,制作并演奏包括了被同时演奏的多个乐句的一段音乐。在这种情况下,要经过大量的反复试验来进行乐句定时关系之类的调整。传统循环音序器由于每次在这样的反复试验中必须逐个地对每个乐句的声音的定时进行改变,因而导致繁琐不便。 
另一种具有收集声音素材(声波片断)的数据库的音乐演奏设备也是公知的。该音乐演奏设备将从数据库中搜索的声音素材连接起来以产生用于演奏一段音乐的乐句。这类音乐演奏设备的数据库存储了多种类型的声音素材以及为每个声音素材而获取的多种类型的特征量。每个声音素材及其特征量相互对应地存储在数据库中。当用户作为搜索者通过搜索屏幕对用户设想的声音素材的特征量进行指定时,从数据库搜索出其特征量与所指定的特征量相近的声音素材,并 将其提供为乐句的组成部分。涉及此类设备的示例参考文献是日本专利申请公开No.H07-121163。 
然而,传统音乐演奏设备的搜索屏幕通常分别针对多种特征的每一个提供了用于将特征量指定为搜索条件的条件输入栏。因此,在用户使用多种特征作为搜索条件来搜索声音素材的情况下,存在这样的问题:即使用户浏览了条件输入栏的内容,用户也不能准确掌握用户所期望的声音素材的搜索条件。 
发明内容
考虑到上述情形,本发明致力于容易地演奏由具有不同乐段的帧所组成的一段音乐。本发明还致力于使得从数据库(多个声音素材的集合)搜索声音素材更便利。 
本发明提供一种音乐演奏设备,包括:操作部分;显示部分;时间线管理处理部分,其根据操作部分的操作来在显示部分上显示一条或多条时间线,每条时间线是代表在一段音乐中重复的一个或多个声音的序列的持续时间的图像;对象管理处理部分,其根据操作部分的操作来在显示部分上显示一个或多个对象,每个对象都是对应于并代表要产生的声音的符号;和音乐演奏处理部分,其确定每个对象对显示部分上显示的一条或多条时间线的从属关系,并在对应于每条时间线的持续时间中针对每条时间线同时地并独立地重复进行产生对应于每个对象的声音的控制,以使得在根据相应对象在该相应对象所属的时间线的长度方向上的位置而确定的声音产生定时处产生每个声音。 
优选地,音乐演奏处理部分根据显示部分的显示区域中的对象与时间线之间的位置关系来确定对象对时间线的从属关系。 
优选地,音乐演奏处理部分根据从相应对象到该相应对象所属的时间线之间的距离来控制表示由相应对象代表的声音的声音产生模式的参数。 
优选地,时间线管理处理部分在显示部分上将时间线显示为相互交叉,对象管理处理部分显示在时间线相互交叉处的网格点处的对 象,和音乐演奏处理部分将对象的从属关系确定为所述对象属于在所述对象放置的网格点处相互交叉的两条时间线。 
根据本发明,时间线以图形方式表示了在一段音乐中重复的一个或多个声音的序列的持续时间,并且对象以图形方式表示了在该持续时间中产生的声音。作为音乐演奏设备的操作者的用户可以通过将对象和时间线之间的位置关系指定为一个或多个对象被分配到一个或多条时间线,来容易地生成一段包括被同时演奏的多个乐句的音乐。 
在本发明的另一方面中,音乐演奏设备还包括:存储部分,其存储代表了多个声音的素材和与多个声音对应的特征量数据,特征量数据代表声音的多个特征;和搜索控制部分,其控制对象管理处理部分来显示具有指示搜索条件的形式的对象,所述搜索条件用于搜索具有期望特征的声音,其中搜索控制部分根据操作部分的操作来相互关联地改变对象的形式和期望声音的搜索条件,并根据搜索条件来搜索存储部分中的特征量数据以对具有满足搜索条件的特征的至少一个声音进行定位。 
优选地,搜索控制部分控制对象管理处理部分来显示具有指示搜索条件的形式的对象,期望声音的特征和要定位的期望声音的所需编号作为所述搜索条件,并且搜索控制部分根据搜索条件来搜索存储部分中的特征量数据,以对具有满足搜索条件的特征的声音的所需编号进行定位。 
优选地,搜索控制部分控制对象管理处理部分来根据操作部分的操作在显示部分的显示区域上显示新对象,所述新对象从显示区域上显示的原始对象复制而来,从而新对象具有与原始对象相同的形式,并且搜索控制部分相互同步地更新由新对象的形式指示的搜索条件和由原始对象的形式指示的搜索条件。 
根据本发明,搜索控制部分以与对象的搜索条件关联的方式改变显示部分中显示的对象。因此,作为操作者的用户可以根据所显示的对象的外表或形式容易地识别由用户指定的搜索条件,从而实现符合用户的设想的声音素材的搜索条件。 
日本专利申请公开No.H07-121163公开的音乐演奏编辑设备在作为操作屏幕的歌曲窗口上显示代表具有预定时间长度的声音素材的多个图案的图标,并产生通过将与在歌曲窗口上选择的图标相对应的图案相连而获得的一段音乐的声音信号。然而,这种类型的音乐演奏数据编辑设备不会在多个声音素材之中搜索满足搜索条件的声音素材,因此与本发明不同。 
附图说明
图1是图示出根据本发明第一实施例的声音搜索/音乐演奏设备的构造的框图。 
图2是声音搜索/音乐演奏设备的声音样本数据库的数据结构示图。 
图3(A)和图3(B)图示出在声音搜索/音乐演奏设备的显示单元的显示区中显示的边缘声音和颗粒声音(dust sound)的对象。 
图4图示出用于引导显示区中对象形状改变的操作。 
图5图示出用于引导显示区中对象形状改变的操作。 
图6图示出用于引导显示区中对象形状改变的操作。 
图7图示出在显示区中显示的时间线。 
图8图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图9图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图10图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图11图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图12图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图13图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图14图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图15图示出在显示区中的时间线和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图16图示出在根据本发明第二实施例的声音搜索/音乐演奏设备的显示区中显示的时间线矩阵。 
图17图示出在显示区中的时间线矩阵和对象的示例排布。 
图18图示出在显示区中的时间线矩阵和对象的示例排布。 
图19图示出在显示区中的时间线矩阵和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图20图示出在显示区中的时间线矩阵和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图21图示出在显示区中的时间线矩阵和对象的示例排布以及通过该排布产生的一段音乐的内容。 
图22图示出本发明另一实施例的声音搜索/音乐演奏设备的显示区中显示的时间线矩阵以及该矩阵中形成的时间线。 
具体实施方式
现在将参考附图描述本发明的实施例。 
(第一实施例) 
图1是图示出根据本发明第一实施例的声音搜索/音乐演奏设备10的构造的框图。通过在个人计算机上安装根据本实施例的声音搜索/音乐演奏程序29来实施声音搜索/音乐演奏设备10。声音搜索/音乐演奏程序29是类似于所谓的循环音序器的应用程序软件产品,并具有根据用户执行的操作在数据库中搜索用于产生一段音乐的声音样本的功能,以利用取得的声音样本制作一段音乐,并演奏所制作的这段音乐。在本实施例中,术语“声音样本”指的是与一段音乐中的一拍对应的片断的声波、或是将一拍进一步划分而成的片断或部分之一的声波。在本实施例中的声音搜索/音乐演奏程序29采用了在传统循环音序器中没有的图形用户界面(GUI),图形用户界面包括被称为 “对象”和“时间线”的GUI元素。即,本实施例特征在于包括对象和时间线的GUI。下文将描述GUI的详情。 
如图1所示,声音搜索/音乐演奏设备10通过接口11连接到声音系统91。该声音搜索/音乐演奏设备10中的操作单元13包括鼠标14、键盘15和鼓垫(drum pad)16。显示单元17例如是计算机显示器。 
控制器20包括CPU 22、RAM 23、ROM 24和硬盘25。CUP 22执行存储在ROM 24或将RAM 23用作工作区的硬盘25中的程序。ROM 24是其中存储了初始化程序装入程序的只读存储器。 
硬盘25是存储了音乐数据库26、声音样本数据库27和28以及声音搜索/音乐演奏程序29的可机读介质。 
音乐数据库26是其中存储了音乐数据md-k(k=1,2,...)的数据库。每项音乐数据md-k(k=1,2,...)都是代表一段音乐的声波的数据。每项音乐数据md-k(k=1,2,...)都被分配单独的音乐编号k。 
图2是声音样本数据库27和28的数据结构示图。声音样本数据库27是与音乐数据md-k(k=1,2,...)中包括的声音样本之中每一个都具有清晰的起音并提供强烈的边缘感的声音样本(以下称为“边缘声音”)分别对应的记录的集合。声音样本数据库28是与音乐数据md-k(k=1,2,...)中包括的声音样本之中每一个都具有清晰的起音并提供强烈的颗粒感的声音样本(以下称为“颗粒声音”)分别对应的记录的集合。通过以特征量分析程序(未示出)对音乐数据库26中的音乐数据md-k(k=1,2,...)进行分析来产生声音样本数据库27和28。 
更具体地说,在声音样本数据库27中,对应于一个边缘声音的记录包括9个字段,分别代表:包括该边缘声音的音乐数据md-k的音乐编号k,在音乐数据md-k所代表的一段音乐的声波之内的一个包括该边缘声音的片断的起点和终点的各自的时刻tS和tE,以及通过对包括该边缘声音的片断或部分的声波(即声音样本)进行分析而获得的以下六类特征量。 
a1.低带强度PLOW
这是声音样本中包括的低频带成分的强度。 
b1.中低带强度PMID-LOW
这是声音样本中包括的中低频带成分的强度。 
c1.中高带强度PMID-HIGH
这是声音样本中包括的中高频带成分的强度。 
d1.高带强度PHIGH
这是声音样本中包括的高频带成分的强度。 
e1.峰值位置PTIME
这是声波幅度达到峰值的时刻,与时刻tS相关地表示。 
f1.峰值强度PVALUE
这是声音样本的峰值幅度。 
类似地,在声音样本数据库28中,对应于一个颗粒声音的记录包括9个字段,分别代表:包括该颗粒声音的音乐数据md-k的音乐编号k,在音乐数据md-k所代表的一段音乐的声波之内的一个包括该颗粒声音的片断的起点和终点的各自的时刻tS和tE,以及通过对包括该颗粒声音的片断的声波声音样本进行分析而获得的上述六类特征量(PLOW,PMID-LOW,PMID-HIGH,PHIGH,PTIME,和PVALUE)。 
在图1中,声音搜索/音乐演奏程序29是使CUP 22执行以下八类处理的程序,即对象管理处理30,时间线管理处理31,乐曲信息管理处理32,手动演奏处理33,自动演奏处理34,搜索处理35,声音处理的处理36,和操作日志管理处理37。在图1中,声音搜索/音乐演奏程序29如上所述向用户提供包括对象和(多条)时间线的GUI。下文是GUI的概述。 
首先,对象是代表用户期望执行声音生成的声音样本搜索条件的图形符号或图案图像。在本实施例中,用户可以生成与用户期望对其执行声音生成的那类声音样本对应的许多对象。对象的形状或形式代表已经与对象关联的声音样本的搜索条件。通过操作操作单元13,用户能够改变与对象相关联的声音样本的搜索条件,并且能够改变与已被改变的搜索条件相关联的对象的形状。 
接下来,时间线是表示乐句的一个乐段的线型图像,乐句的一个乐段是在一段音乐中周期性重复的一个或多个声音样本的一个序 列。时间线可以表示一个小节,也可以表示多个小节。在本实施例中,一个乐句的乐曲可以通过在显示单元17上显示时间线和一个或多个对象、并且将一个或多个对象分配给时间线(即,定义或确定一个或多个对象对时间线的从属关系)来演奏。在这种情况下,分配到时间线上的一个或多个对象中的每一个指定了搜索条件和声音样本的声音产生定时,该声音样本的声音产生在时间线所表示的一个乐段中进行。在本实施例中,当演奏音乐乐曲时还可以使用多个时间线。在这种情况下,时间线表示针对要制作的一段音乐而同时演奏的多个乐句的各个乐段。可以对每个时间线分配各自的对象,也可以对每个时间线共同地分配共同的对象。 
如上所述,声音搜索/音乐演奏程序29是使CPU 22执行以下八类处理的程序,即对象管理处理30、时间线管理处理31、乐曲信息管理处理32、手动演奏处理33、自动演奏处理34、搜索处理35、声音处理的处理36和操作日志管理处理37。对象管理处理30是根据操作单元13的操作来产生、改变和存储对象的处理。时间线管理处理31是用于根据操作单元13的操作来产生和改变时间线的处理。乐曲信息管理处理32包括:用于将显示单元17上显示的时间线和对象的布置信息存储为音乐数据的处理,和用于根据所存储的音乐数据将时间线和对象再现在显示单元17上的处理。 
手动演奏处理33是用于根据通过鼓垫16之类的操作的手动触发来对与一个对象所代表的搜索条件相匹配的声音样本执行声音产生的处理。自动演奏处理34与对象管理处理30共享与显示在显示单元17上的对象的屏幕布置和内容相关的信息,并且自动演奏处理34与时间线管理处理31共享与显示在显示单元17上的时间线的屏幕布置和内容相关的信息。自动演奏处理34是用于根据显示单元17上显示的一个或多个对象以及一个或多个时间线来执行一个或多个乐句的自动演奏的处理。 
搜索处理35是用于根据已经与指定对象关联的搜索条件来搜索声音样本的处理,并且该处理作为对象管理处理30、手动演奏处理33和自动演奏处理34中的子程序而启动。声音处理的处理36是用 于在执行声音样本的声音产生时改变包含在与对象相对应的声音样本中的参数的处理,并且该处理作为自动演奏处理34中的子程序而启动。操作日志管理处理37包括:对用来执行对象或时间线的产生、改变等的操作单元13的操作日志进行记录的处理,和读取所记录的操作日志并再现操作日志指示的每个操作的处理。 
上面已经详细描述了声音搜索/音乐演奏设备10的构造。 
在本实施例中,一段音乐是通过用于确定声音样本(用来制作一段音乐)的声音样本确定任务、以及用于将所确定的声音样本映射到一个或多个乐句的时间轴上的样本排布任务而生成的。下文描述了该实施例中样本确定任务和样本排布任务的操作。 
(1)样本确定任务 
在样本确定任务中,用户选择确定了声音样本搜索定时的两个搜索设置(即第一和第二搜索设置)之一,并执行对象开发操作、搜索条件指定操作、手动演奏操作、对象存储操作等等。第一搜索设置是其中每当与对象关联的搜索条件发生改变时就在音乐数据库26中执行声音样本搜索的搜索设置。第二搜索设置是其中每当执行由对象所代表的声音样本的声音产生时在声音产生之前在音乐数据库26中执行声音样本搜索的搜索设置。 
首先,用户执行对象开发操作。对象开发操作是在显示单元17的显示区域中开发(即显示)对象ob-n(n=1,2,...)的图像的操作。如上所述,对象ob-n是代表一段音乐的乐句中包括的声音样本的图形图像。通过对象开发操作,还可以将早先创建并存储在硬盘25中的对象ob-n指定为开发目标,以及可以将声音搜索/音乐演奏设备29中预备的默认对象(即具有预定标准搜索条件的对象ob-n)指定为开发目标。 
通过对象开发操作,还可以将边缘声音的对象ob-n指定为开发目标,以及将颗粒声音的对象ob-n指定为开发目标。在对象管理处理30中,将通过对象开发操作指定的对象ob-n显示在显示单元17上,并将与对象ob-n关联的对象管理信息写入RAM 23。对象管理信息包括:搜索的所需编号Num(1≤Num)、以及特征量PLOW、 PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE,它们构成由对象ob-n的形状或形式代表的声音样本的搜索条件SC-n。在一些情况下,对象管理信息可以附有搜索结果SR-n,搜索结果是通过使用搜索条件SC-n获得的声音样本的集合。 
如图3(A)所示,边缘声音的对象ob-n整体形成矩形,并包括出现在矩形右侧的竖条区51、和将竖条区51的左边的部分横向均分的四个横条区52-m(m=1~4)。在对象ob-n中,水平对称的上部和下部三角形55-u和55-d(每一个模拟一个边缘声音)以重叠方式分别显示在横条区52-1和52-2以及横条区52-3和52-4上。这里,三角形55-u和55-d的上顶点和下顶点的每一个的水平位置(即在水平方向上的位置)都代表由对象ob-n表示的边缘声音的峰值位置PTIME。即,边缘声音的清晰感随着三角形55-u和55-d的上顶点和下顶点中的任一顶点趋向左侧而增加,随着三角形55-u和55-d的上顶点和下顶点中的任一顶点趋向右侧而减小。此外,三角形55-u和55-d的上顶点和下顶点每一个的高度代表边缘声音的峰值的峰值强度PVALUE。即,边缘声音的边缘感随着三角形55-u和55-d的上顶点和下顶点的每一个的高度增加而增加,并随着三角形55-u和55-d的上顶点和下顶点的每一个的高度的减小而减小。 
横条区52-m(m=1~4)的显示颜色的各个密度(或暗度)代表由对象ob-n所表示的边缘声音的高带强度PHIGH、中高带强度PMID-HIGH、中低带强度PMID-LOW和低带强度PLOW。即,例如,当横条区52-1的显示颜色深时,边缘声音的高带强度高;例如当横条区52-1的显示颜色浅并且横条区52-2的显示颜色深时,边缘声音的中高带强度比高带强度高。 
如图3(B)所示,颗粒声音的对象ob-n具有这样的形式,其中模拟颗粒声音的粒面图案被叠加在包括横条区52-m(m=1~4)和竖条区51的区域上。与边缘声音的对象ob-n类似,横条区52-m(m=1~4)的显示颜色的各个密度代表了由对象ob-n所表示的颗粒声音的高带强度PHIGH、中高带强度PMID-HIGH、中低带强度PMID-LOW和低带强度PLOW。 
在通过对象开发操作将一个或多个对象ob-n显示在显示单元17的显示区域中之后,用户可以对每个对象ob-n执行搜索条件指定操作、对象存储操作等。 
搜索条件指定操作是对与对象ob-n关联的声音样本的搜索条件SC-n进行指定的操作。下面是这种搜索条件指定操作。 
<指定边缘声音的峰值位置PTIME和峰值强度PVALUE的操作> 
通过该操作,用户操作对象ob-n的三角形55-u和55-d的形状。具体地说,如图4所示,用户在将鼠标指针mp移动到边缘声音的对象ob-n的三角形55-u和55-d中之一(例如三角形55-u)的顶点C处之后按下鼠标左键,并在保持鼠标左键被按下的状态下将鼠标指针mp向任意方向移动之后释放鼠标左键。在对象管理处理30中,CPU22根据该操作以协作(或关联的)方式来改变三角形55-u和55-d的形状、以及峰值位置和强度PTIME和PVALUE。即,每个三角形55-u和55-d的顶点的位置等于操作终止的时刻鼠标指针mp的位置,并且每个三角形55-u和55-d的顶点与对象ob-n的左侧的距离代表了更新后的峰值位置PTIME,每个顶点的高度代表了更新后的峰值强度PVALUE。 
<指定边缘声音和颗粒声音的高带强度PHIGH、中高带强度PMID-HIGH、中低带强度PMID-LOW和低带强度PLOW的操作> 
在这种情况下,如图5所示,用户在将鼠标指针mp移动到对象ob-n的横条区52-m(m=1~4)之一(例如图5例子里的横条区52-1)之后按下键盘15上的一个键(例如shift键),并在将该键保持按下状态下将鼠标指针mp向右方移动之后释放该键。例如,当已经对横条区52-4执行了该操作时,CPU 22在对象管理处理30中根据鼠标指针mp在右向上的移动量来以协作方式更新横条区52-4的显示颜色的密度和低带强度PLOW定高带强度PHIGH、中高带强度PMID-HIGH、中低带强度PMID-LOW也执行同样的操作。 
<指定边缘声音和颗粒声音的搜索所需编号Num的操作> 
在这种情况下,如图6所示,用户在将鼠标指针mp移动到对象ob-n的竖条区51的下部之后按下键盘15上的一个键(例如shift键), 并在保持该键被按下的状态下将鼠标指针mp向上移动之后释放该键。例如,当已经执行了该操作时,CPU 22在对象管理处理30中显示竖条区51中的一个从竖条区51底部向上延伸的条95,并根据鼠标指针mp在向上方向上的移动量以协作方式更新竖条区51的条95的高度和搜索所需编号Num。 
在第一设置的情况下,每当改变了与对象关联的搜索条件SC-n,对象管理处理30就启动搜索处理35,并使搜索处理35对满足对象中的新搜索条件SC-n的声音样本进行搜索。 
例如,当搜索处理35已经由于与边缘声音的对象ob-n相关联的搜索条件SC-n的改变而被启动时,在搜索处理35中,CPU 22从RAM 23读取构成搜索条件SC-n的搜索所需编号Num和特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE。然后,CPU 22按照由声音样本数据库27中的特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE所代表的六维特征量矢量以欧几里德距离增加的次序搜索最高Num记录。CPU 22随后对与每个最高Num记录对应的声音样本进行定位。即,对于每个记录,CPU 22将相同音乐编号k的音乐数据md-k识别为该记录中的音乐编号k字段的音乐数据md-k,并在该音乐数据md-k中针对该记录的时刻tS和tE字段所表示的起点和终点之间的片断的声音样本来进行定位。随后,CPU 22将以上述方式查找到的Num记录和最高Num声音样本作为搜索结果SR-n与对象ob-n相关联。当与颗粒声音的对象ob-n相关联的搜索条件SC-n改变时也进行同样的操作。 
用户可以执行手动演奏操作以检查具有期望特征或特性的声音样本是否已经与对象ob-n相关联。该手动演奏操作是用于通过声音系统91产生手动触发来产生与对象ob-n相关联的声音样本的操作。由于可以设置在声音搜索/音乐演奏程序29上使用的适合的手动触发,因此,在本示例中假设已经将操作鼓垫16的事件设置为手动触发。在这种情况下,用户通过将鼠标指针mp移动到对象ob-n并点击鼓垫16来作出手动演奏处理33。 
在处于第一搜索设置下的手动演奏处理33中,每当点击鼓垫16 时,CPU 22就从与鼠标指针mp所指示的对象ob-n相关联的搜索结果SR-n所包括的声音样本(即上文所述的最高Num声音样本)中选择一个声音样本,并通过声音系统91来产生所选声音样本的声音。 
在处于第二搜索设置下的手动演奏处理33中,每当点击鼓垫16时,CPU 22启动搜索处理35,并将与鼠标指针mp所指示的对象ob-n相关联的搜索条件SC-n传送到搜索处理35。随后,CPU 22从通过搜索处理35获得的搜索结果SR-n中所包括的声音样本(即上文所述的最高Num声音样本)中随机选择一个声音样本,并通过声音系统91来产生所选声音样本的声音。用户聆听产生的该声音样本的声音,并在该声音样本不具有期望特性或特征时再次对对象ob-n执行搜索条件指定操作。 
在期望显示单元17的显示区域中的对象ob-n能在以后再次使用的情况下,用户可以执行对象存储操作。这是操作单元13用于指示显示单元17的显示区域中的对象ob-n的存储的操作。当已经对对象ob-n执行了对象存储操作时,在对象管理处理30中,CPU 22产生对象ob-n的对象管理信息并将所产生的对象管理信息存储在硬盘25中。对象管理信息是对象ob-n的搜索条件SC-n中包括的搜索所需编号Num和特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE、及其搜索结果SR-n中包括的记录。 
如上所述,在样本确定任务中,用户在音乐数据库26以及声音样本数据库27和28中搜索与用户期望的声音相近的声音样本,同时通过改变显示单元17的显示区域中的对象ob-n的形状或形式来改变搜索条件SC-n中包括的搜索所需编号Num和特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE。用户确定生成一段音乐所需的多个对象ob-n(n=1,2,...)和各个对象ob-n(n=1,2,...)的形状,并在需要时存储对象ob-n(n=1,2,...)的对象管理信息,并移动到后续的样本排布任务。 
(2)样本排布任务 
在样本排布任务中,用户使用操作单元13来在显示单元17的显示区域中显示一个或多个期望时间线以及一个或多个期望对象,并 调节时间线与对象之间的相对位置等,以使时间线和对象具有期望的位置关系,从而建立对象对时间线的从属关系。为了实现这个目的,用户执行对象开发操作、对象复制操作、搜索条件指定操作、时间线开发操作、时间线位置改变操作、对象位置改变操作、尺寸改变操作、拍子分配操作、网格指定操作、参数协调操作、音乐演奏开始操作、布置存储操作、布置读取操作、日志记录开始操作、日志记录结束操作和日志再现操作。 
当已经执行了时间线开发操作时,在时间线管理处理31中,CPU22在显示单元17的显示区域中显示如图7所示的时间线LINE-i。该时间线LINE-i是在水平方向上延伸的表示乐句的持续时间的线型图像。节拍引导线63-j(j=1~5)从时间线LINE-i的左右两端并从时间线LINE-i上将时间线LINE-i分成四个相等部分的位置处向下延伸。网格线g从时间线LINE-i上将每对相邻节拍引导线63-j之间的部分分成两个相等子部分的每个位置处向下延伸。夹在时间线LINE-i的左右两端处的两个节拍引导线63-j之间的区域被定义为时间线LINE-i占用区,该时间线LINE-i占用区处在时间线LINE-i控制下。在时间线LINE-i占用区中的对象是属于时间线LINE-i的对象。时间线LINE-i还包括定时指针62。定时指针62是指示自动演奏过程中当前音乐演奏位置的指针,并在执行自动演奏时周期性重复地从时间线LINE-i的左端向右端移动。 
通过操作操作单元13,用户可以使时间线管理处理31调节显示单元17的显示区域中的节拍引导线63-j(j=1~5)的长度或时间线LINE-i的水平长度。通过操作操作单元13,用户还可以使时间线管理处理31调节时间线LINE-i代表的乐句的持续时间T,即定时指针62从时间线LINE-i的左端移向右端所需的时间。在时间线管理处理31中,可以根据操作单元13的操作来管理在显示单元17上显示的每条时间线LINE-i的信息,如时间线代表的持续时间T、节拍引导线63-j(j=1~5)的数量和每条节拍引导线63-j的长度、时间线LINE-i的水平长度、以及时间线LINE-i在显示区域中的水平和垂直位置之类。 
接下来,当在显示单元17的显示区域中没有显示要分配到时间线LINE-i上的对象ob-n时,用户执行对象开发操作来开发对象ob-n。通过对象开发操作,存储在硬盘25中的对象管理信息可以被读取并显示为对象ob-n。用户还可以对显示单元17的显示区域中显示的对象ob-n执行搜索条件指定操作。在对象管理处理30中,通过操作单元13的操作来管理显示单元17上显示的对象ob-n的信息,比如对象ob-n在显示区域中的水平和垂直位置、以及与对象ob-n关联的搜索结果SR-n和搜索条件SC-n。另外,当已经对正显示的对象ob-n执行了搜索条件指定操作时,在对象管理处理30中更新与对象ob-n关联的搜索结果SR-n和搜索条件SC-n。 
在将一个或多个时间线LINE-i以及一个或多个对象ob-n显示在显示单元17的显示区域中之后,用户可以使用操作单元13来执行时间线位置改变操作或对象位置改变操作。当用户期望将对象ob-n分配或布置到时间线LINE-i上时(即,定义对象ob-n属于时间线LINE-i),用户可以调节对象ob-n的位置以使对象ob-n进入时间线LINE-i的占用区。在这种情况下,用户还可以将共同的对象ob-n布置在多个时间线LINE-i的各自的占用区内以对多个时间线LINE-i分配共同的对象ob-n。 
用户还可以通过尺寸改变操作来在x轴方向(与时间线LINE-i的长度方向平行)扩展时间线LINE-i宽度,或在y轴方向(与时间线LINE-i的长度方向垂直)扩展时间线LINE-i宽度。用户还可以通过拍子分配操作来将时间线LINE-i中的节拍引导线63-j的数量增加到5以上或减小到5以下,或者可以通过网格指定操作将时间线LINE-i的每对节拍引导线63-j之间的网格线g的数量增加到1以上。通过执行增加时间线LINE-i的x轴宽度的操作而不执行改变时间线LINE-i所代表的乐句的持续时间T的操作,用户可以增加时间线LINE-i的占用区域的尺寸来增加占用区域中编辑对象ob-n的自由度。 
另外,通过执行参数协调操作,用户可以将自动演奏期间的与声音样本的声音产生相关的操作模式从标准模式切换到参数链接模 式。这里,参数链接模式是这样一种模式:在执行与属于时间线LINE-i的对象ob-n对应的声音样本的声音产生时,根据从时间线LINE-i到对象ob-n的垂直距离来改变所述声音样本的参数(例如音高、音量和声音产生定时的延迟量)。标准模式是执行与分配到时间线LINE-i的对象ob-n对应的声音样本的声音产生而不改变该声音样本的参数的模式。 
用户在需要时还可以执行对象复制操作。这是用于在显示单元17的显示区域内对显示区域中所显示的原始对象ob-n进行复制(和粘贴)的操作。当已经对原始对象ob-n执行了对象复制操作时,CPU22在对象管理处理30中显示与原始对象ob-n具有相同形状的新对象ob’-n。可以生成一个或多个复制的对象ob’-n。这里,原始对象ob-n和复制的对象ob’-n与共同的搜索条件SC-n和搜索结果SR-n相关联。用户不仅可以将原始对象ob-n还可以将复制的对象ob’-n分配给期望的时间线LINE-i。这里,对象ob-n和对象ob’-n是相同的,可以对这两种对象同样地施加给定操作。即,当已经对对象ob-n和对象ob’-n中的一个执行了搜索条件指定操作时,CPU 22同时对对象ob-n和对象ob’-n更新搜索条件SC-n。 
在通过上述操作确定显示单元17的显示区域中的对象ob-n和时间线LINE-i的布置之后,用户利用操作单元13执行演奏开始操作。当已经执行了演奏开始操作时,CPU 22执行自动演奏处理34。在自动演奏处理34中,CPU 22启动与显示单元17的显示区域中显示的时间线LINE-i(i=1,2,...)分别对应的时间线任务tsk-i(i=1,2,...),并独立于时间线来同时执行所启动的多个时间线任务tsk-i(i=1,2,...)。 
在与一个时间线LINE-i对应的一个时间线任务tsk-i中,CPU 22确定被分配给该时间线LINE-i的对象ob-n(n=1,2,...)(即置于时间线LINE-i的占用区域中的对象),并且每个持续时间T重复一次用于产生由属于时间线LINE-i的每个对象ob-n所代表的声音的操作。下面是这个过程的详情。首先,在每个时间线任务tsk-i中,CPU 22在持续时间T期间重复执行将定时指针62从时间线LINE-i的左端移 动到右端的操作的同时,对代表了时间线LINE-i纵向位置的定时指针62的x轴的值进行监控。随后,当放置在或位于时间线LINE-i的占用区域中的一个或多个对象ob-n之一的x轴的值(更具体地说,定义了对象ob-n的轮廓的矩形的左上角的x轴的值)与定时指针62的x轴的值匹配时,CPU 22执行处理,以利用对象ob-n的x轴的值与定时指针62相匹配的时刻作为声音样本的声音产生定时来执行对应于对象ob-n的声音样本的声音产生。 
更具体地说,在已经完成第一搜索设置的状态下,在时间线任务tsk-i中,每当属于时间线LINE-i的对象ob-n的x轴的值与定时指针62的x轴的值匹配时,CPU 22就读取与对象ob-n关联的搜索结果SR-n,并从所读取的搜索结果SR-n中包括的声音样本中随机地选择一个声音样本,通过声音系统91执行所选声音样本的声音产生。在已经完成第二搜索设置的状态下,在时间线任务tsk-i中,每当属于时间线LINE-i的对象ob-n的x轴的值与定时指针62的x轴的值匹配时,CPU 22就启动搜索处理35并将对象ob-n的搜索条件SC-n传给搜索处理35。随后,CPU 22从搜索处理35所返回的搜索结果SR-n中包括的声音样本中随机地选择一个声音样本,并通过声音系统91执行所选声音样本的声音产生。 
在已经设置了参数链接模式的情况下,每当按照搜索结果SR-n选择一个声音样本时,CPU 22就启动声音处理的处理36并通过声音处理的处理36来处理声音样本,并通过声音系统91执行所处理的声音样本的声音产生。具体地说,在声音处理的处理36中,对声音样本进行这样的处理:根据从时间线LINE-i到对象ob-n的距离来与参数链接模式相关联地改变诸如先前指定的音高、音量和声音产生定时的延迟量之类的参数。 
下面参照具体示例来描述本实施例中利用时间线LINE-i和对象ob-n以及乐曲自动演奏的各种模式来演奏的各种乐曲。 
在图8(A)的示例布置中,对象ob-1处在时间线LINE-1的最左节拍引导线63-1的右侧,对象ob-2处在时间线LINE-1的第二最左节拍引导线63-2的右侧,对象ob-3处在时间线LINE-1的第三最左 节拍引导线63-3的右侧。当时间线LINE-1和对象ob-n(n=1~3)之间具有这样的位置关系时,(在与时间线LINE-1对应的时间线任务tsk-1中)在自动演奏处理34中,CPU 22重复一个四节拍乐句,该乐句在将持续时间T分成如图8(B)所示四等份的时刻t1、t2、t3和t4之中的时刻t1、t2、t3处产生对象ob-n(n=1~3)各自的声音样本的声音。 
通过在图8(A)的示例布置中固定时间线LINE-1的位置并将对象ob-n(n=1~3)向右移动来得到图9(A)的示例布置。也可通过在图8(A)的示例布置中固定对象ob-n(n=1~3)的位置并将时间线LINE-1向左移动来得到图9(A)的示例布置。在图9(A)的示例布置中,对象ob-1处在时间线LINE-1的节拍引导线63-2的右侧,对象ob-2处在节拍引导线63-3的右侧,对象ob-3处在节拍引导线63-4的右侧。当时间线LINE-1和对象ob-n(n=1~3)之间具有这样的位置关系时,(在与时间线LINE-1对应的时间线任务tsk-1中)在自动演奏处理34中,CPU 22重复一个四节拍乐句,该乐句在如图9(B)所示的时刻t2、t3和t4处产生对象ob-n(n=1~3)各自的声音样本的声音。 
通过在图8(A)的示例布置中固定对象ob-1和时间线LINE-1的位置、并向左移动对象ob-2和ob-3来得到图10(A)的示例布置。在图10(A)的示例布置中,对象ob-1处在节拍引导线63-1的右侧,对象ob-2处在节拍引导线63-1与节拍引导线63-2之间的网格线g的右侧,对象ob-3处在节拍引导线63-2的右侧。当时间线LINE-1和对象ob-n(n=1~3)之间具有这样的位置关系时,(在与时间线LINE-1对应的时间线任务tsk-1中)在自动演奏处理34中,CPU 22重复一个四节拍乐句,该乐句在如图10(B)所示的时刻t1、(t1+t2)/2和t2处产生对象ob-n(n=1~3)各自的声音样本的声音。 
在样本排布任务中,用户可以通过在显示单元17的显示区域中显示两条时间线LINE-i、并在显示区域中布置一个或多个对象ob-n以使这一个或多个对象ob-n属于这两条时间线LINE-i,来生成一段对包括了相同搜索结果SR-n的声音样本的两类乐句进行周期性重复的音乐。 
在图11(A)的示例排布中,在两条时间线LINE-j(j=1,2)的占用区域中存在三个对象ob-n(n=1~3),并且时间线LINE-2相对于时间线LINE-1向左伸出。对象ob-1处在时间线LINE-1的节拍引导线63-1的右侧(即在时间线LINE-2的节拍引导线63-2的右侧),对象ob-2处在LINE-1的节拍引导线63-2的右侧(即在时间线LINE-2的节拍引导线63-3的右侧),对象ob-3处在LINE-1的节拍引导线63-3的右侧(即在时间线LINE-2的节拍引导线63-4的右侧)。 
当时间线LINE-j(j=1,2)与对象ob-n(n=1~3)之间具有这样的位置关系时,在自动演奏处理34中,CPU 22在与时间线LINE-1对应的时间线任务tsk-1中重复一个四节拍乐句,该乐句在将持续时间T分成如图11(B)所示四等份的时刻t1、t2、t3和t4之中的时刻t1、t2、t3处产生对象ob-n(n=1~3)各自的声音样本的声音。另外,CPU 22在与时间线LINE-2对应的时间线任务tsk-2中重复一个四节拍乐句,该四节拍乐句在如图11(B)所示的时刻t2、t3和t4处产生对象ob-n(n=1~3)各自的声音样本的声音。 
在样本排布任务中,用户还可以通过将操作模式设置到参数链接模式、并将从多个对象ob-n中的每一个到时间线LINE-i的距离改变到时间线LINE-i的占用区域之内,来生成一段在一个乐句中包括了“强”音和“弱”音的音乐。 
通过在图8(A)的示例排布中将位于节拍引导线63-2右侧的对象ob-2向下移到接近节拍引导线63-2底部来得到图12(A)的示例排布。这里,假设在已经设置了参数链接模式并且音量为链接目标参数的状态下执行自动演奏处理34。在这种情况下,由于时间线LINE-1和对象ob-n(n=1~3)具有如图12(A)所示的位置关系,因此,在自动演奏处理34中启动的(即在与时间线LINE-1对应的时间线任务tsk-1中启动的)声音处理的处理36中,CPU 22增加位于时间线LINE-1附近的对象ob-1和ob-3各自的声音样本的音量,而减小远离时间线LINE-1的对象ob-2的声音样本的音量。结果,CPU 22重复这样的乐句,该乐句在将持续时间T分成如图12(B)所示四等份的时刻t1、t2、t3和t4之中的时刻t1、t2和t3处产生对象ob-n(n=1~3)的声 音样本的强、弱、强声音序列。 
在样本排布任务中,用户还可以通过在显示区域中布置一个或多个对象ob-n以使这一个或多个对象ob-n均同时属于两条时间线LINE-i、并且减小或增大两条时间线LINE-i之一的x轴宽度,来生成包括两类乐句的一段音乐,这两类乐句包括相同搜索结果SR-n的声音样本而在持续时间T内具有不同的声音产生定时。 
通过将图11(A)的示例排布中的时间线LINE-2的x轴宽度减半并调节时间线LINE-j(j=1,2)的x轴位置以使时间线LINE-j(j=1,2)的节拍引导线63-1重叠,来得到图13(A)的示例排布。在该示例排布中,位于时间线LINE-1的节拍引导线63-3右侧(并且位于时间线LINE-2的最右节拍引导线63-5的右侧)的对象ob-3仅属于时间线LINE-1。虽然显示区域中的时间线LINE-2的x轴长度是时间线LINE-1的x轴长度的一半,但时间线LINE-2所代表的乐句的持续时间T等于时间线LINE-1所代表的乐句的持续时间T。 
当时间线LINE-j(j=1,2)和对象ob-n(n=1~3)具有这种位置关系时,在自动演奏处理34中的对应于时间线LINE-1的时间线任务tsk-1中,CPU 22重复这样的乐句,该乐句在将持续时间T被分成如图13(B)所示的四等份的时刻t1、t2、t3和t4之中的时刻t1、t2和t3处产生对象ob-1、ob-2和ob-3各自的声音样本的声音。另外,在对应于时间线LINE-2的时间线任务tsk-2中,CPU 22重复一个在如图13(B)所示的时刻t1和t3处产生对象ob-1和ob-2各自的声音样本的声音的乐句。 
在样本排布任务中,用户可以通过将一个或多个对象ob-n布置在显示区域中以使这一个或多个对象ob-n属于两条时间线LINE-i、并改变这两条时间线LINE-i之一的节拍数量设置以减小或增大节拍引导线63-j的数量,来生成一段结合了两类乐句的复合节奏音乐,这两类乐句包括相同搜索结果SR-n的声音样本并且具有不同的持续时间T或不同的拍子。 
在图14(A)的示例排布中,时间线LINE-1和时间线LINE-2在显示区域中具有相同水平长度,而时间线LINE-1和LINE-2的x轴 位置已经被调节来使时间线LINE-1和LINE-2的节拍引导线63-1重叠。这里,节拍引导线63-2、63-3和63-4位于将时间线LIHNE-1整体垂直分成四等份的位置处。另外,时间线LINE-2的节拍引导线的数量比时间线LINE-1的节拍引导线的数量少1,并且节拍引导线63-2和63-3位于将时间线LIHNE-2整体垂直分成三等份的位置处。时间线LINE-2代表的乐句的持续时间T’的长度是时间线LINE-1代表的乐句的持续时间T的长度的3/4。对象ob-1属于两条时间线LINE-1和LINE-2,并位于时间线LINE-1和LINE-2的节拍引导线63-1的右侧。 
当在这种状态下执行自动演奏处理34时,CPU 22在自动演奏处理34中的对应于时间线LINE-1的时间线任务tsk-1中重复一个四节拍乐句,该乐句在将持续时间T分成如图14(B)所示四等份的时刻t1、t2、t3和t4之中的一个时刻处产生对象ob-1的声音样本的声音。另外,CPU 22在与时间线LINE-2对应的时间线任务tsk-2中重复一个三节拍乐句,该三节拍乐句在将长度为持续时间T的3/4的持续时间T’分成如图14(B)所示的三等份的时刻t1’、t2’和t3’之中的时刻t1’处产生对象ob-1的声音样本的声音。 
在本实施例中,用户可以在执行自动演奏处理34的同时移动时间线LINE-i。当已经在时间线LINE-i上执行了时间线位置改变操作时,CPU 22在时间线管理处理31中更新关于时间线LINE-i位置的信息。在自动演奏处理34中引用了不断根据时间线位置改变操作更新的关于时间线LINE-i位置的信息。在图15(A)示出的示例中,设置了参数链接模式并将音量设置为链接目标参数。相应地,当将时间线LINE-1远离对象ob-1向上移动而不改变如图15(A)所示的对象ob-1的位置时,CPU 22如图15(B)所示逐渐减小所产生的对象ob-1的声音样本产生的声音的音量,作为在自动演奏处理34中启动的声音处理的处理36的结果。在已经将声音产生定时的延迟量设置为参数链接模式下的链接目标参数的情况中,通过在自动演奏期间将时间线LINE-1的位置向上移动,可以获得伪延迟效果,从而根据时间线LINE-1的向上移动量来延迟对象ob-1的声音样本的声音产生定时。 
从上面的描述中,显然,根据显示单元17上显示的时间线和对象的详情以及时间线与对象之间的相对位置关系,确定了一段音乐的内容。即,显示单元17上显示的时间线和对象的布置信息用作音乐数据。本实施例提供了一种重新使用音乐数据的途径。更具体地说,用户可以在停止样本排布任务时利用操作单元13执行布置存储操作。当执行了布置存储操作时,CPU 22在乐曲信息管理处理32中将显示单元17的显示区域中显示的时间线和对象的布置信息存储在硬盘25中。布置信息是一组代表显示区域中对象ob-n(n=1,2...)、和时间线LINE-i(i=1,2,...)各自的位置(x轴的值、y轴的值)的排布信息以及对象ob-n(n=1,2...)的对象管理信息(搜索条件SC-n和搜索结果SR-n)。搜索条件SC-n与声音对象的形状相关联,搜索结果SR-n识别对应于声音对象的声音样本在音乐数据存储器中的位置。 
另外,用户可以在恢复任务时利用操作单元13执行布置读取操作。当执行了布置读取操作时,CPU 22在乐曲信息管理处理32中读取存储在硬盘25中的布置信息,并从所读取的布置信息中提取时间线和对象的布置信息以及对象管理信息。CPU 22在乐曲信息管理处理32中将时间线LINE-i(i=1,2,...)和对象ob-n(n=1,2...)显示在由布置信息代表的位置处,并将对象管理信息中包括的搜索所需编号Num和特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE作为搜索条件SC-n写入RAM 23。在这种情况下,用户还可以通过时间线移动操作或对象移动操作来改变显示单元17的显示区域中重新建立的时间线LINE-i(i=1,2,...)和对象ob-n(n=1,2...)的布置。可以将作为音乐数据的布置信息传送并用在不同于已经创建该布置信息的声音搜索/音乐演奏设备10的其它声音搜索/音乐演奏设备10中。在这种情况下,当音乐数据传送源和传送目标中的音乐数据数据库26、声音样本数据库27和28等的内容不同时,在传送源和传送目标中的基于音乐数据的自动演奏的细节也不同。这是因为传送源和传送目标中的基于音乐数据中包括的对象而建立的声音样本有可能不同。 
另外,在本实施例中,用户可以利用操作单元13以期望的时间 间隔执行日志记录开始操作和日志记录结束操作。当用户执行了日志记录开始操作时,CPU 22在操作日志管理处理37中产生代表显示区域中时间线LINE-i LINE-i(i=1,2,...)和对象ob-n(n=1,2...)各自的移动的顺序数据项,直到在日志记录开始操作执行之后的日志记录结束操作被执行,并将所产生的一组顺序数据项作为日志信息记录在硬盘25中。当用户执行了日志再现操作时,CPU 22在操作日志管理处理37中读取存储在硬盘25中的日志信息,并根据日志信息中包括的各个顺序数据项来再现显示区域中时间线LINE-i(i=1,2,...)和对象ob-n(n=1,2...)各自的移动。 
上面描述的这个实施例可以实现如下优点。 
在该实施例中,声音搜索/音乐演奏程序29根据操作单元13的操作以协作方式来改变由显示单元17的显示区域中的对象ob-n所代表的声音样本的搜索条件SC-n、以及对象ob-n的形状。因此,用户能够按照对象ob-n的形状确定用户为对象ob-n指定的搜索条件SC-n,并且能够更简便地搜索符合用户期望的声音样本。另外,当用户在以后浏览对象ob-n时,用户能够根据对象ob-n的形状容易地直观看到对象ob-n代表的声音样本的特征或为该对象ob-n指定的声音样本的搜索条件SC-n。 
在该实施例中,在显示单元17的显示区域中显示了多条时间线LINE-i的情况下,声音搜索/音乐演奏程序29执行这样一段音乐的声音产生,该段音乐包括分别与多条时间线LINE-i对应并在时间轴上重叠的多个类型的乐句。另外,在显示区域中的对象ob-n属于多条时间线LINE-i的情况下,与多条时间线LINE-i的x轴方向上的对象ob-n的各个位置对应的时刻被用作与多个乐句中的对象ob-n对应的声音的声音产生定时。因此,通过将时间线LINE-i和对象ob-n在显示单元17的显示区域中布置成具有使一个或多个对象ob-n属于多条时间线LINE-i的位置关系,用户能够生成一段包括了具有在时间轴上重叠的多个乐段的乐句的音乐。 
此外,通过将已通过对象存储操作被存储到硬盘25中的对象管理信息、已通过布置存储操作被存储到硬盘25中的布置信息、已通 过日志存储操作被存储到硬盘25中的日志信息等复制到安装了声音搜索/音乐演奏程序29的另一台计算机的硬盘25中,用户能够利用所述另一台计算机继续执行样本排布任务。 
另外,在样本排布任务期间,用户可以从其他用户那里获取除了存储在音乐数据库26中的音乐数据md-k(k=1,2,...)之外的音乐数据md’-k(k=1,2,...)以及md’-k(k=1,2,...)的分析结果的一组记录,并将音乐数据md’-k(k=1,2,...)和这一组记录分别存储在音乐数据库26和声音样本数据库27和28中,随后可以继续后面的任务。即使被指定为显示单元17显示区域中的对象ob-n形状的搜索条件SC-n相同,如果要搜索的音乐数据库26或声音样本数据库27和28的内容发生改变,那么作为相应搜索结果的SR-n而获得的声音样本也改变。因此,通过改变音乐数据库26和声音样本数据库27和28的内容而不改变显示单元17的显示区域中的对象ob-n和时间线LINE-i的布置,用户可以生成这样的一段音乐,其中在每个持续时间T中重复的乐句的每个声音的产生定时相同而每个声音听起来有一点不同。 
(第二实施例) 
下面描述本发明的第二实施例。本实施例特征在于包括对象ob-n和作为时间线LINE的集合的时间线矩阵MTRX的GUI。时间线矩阵MTRX是包括相互交叉的在x轴方向(即水平方向)上延伸的M条(例如M=4)时间线LINE-i0(i=1~4)和在y轴方向(即垂直方向)上延伸的N条(例如N=4)时间线LINE-0j(j=1~4)。在时间线矩阵MTRX中,在时间线LINE-i0(i=1~4)与时间线LINE-0j(j=1~4)的交点处分别形成了总共16个网格点gp-ij(i=1~4,j=1~4)。通过操作单元13的操作,时间线LINE-i0和时间线LINE-0j的每一个从激活状态和空闲状态这两种状态中的一个状态切换到另一个状态。术语“激活状态”是指其中时间线被用作代表一段音乐中包括的一个乐句的图像的状态,而术语“空闲状态”是指其中时间线没有用作代表一段音乐中包括的一个乐句的图像的状态。 
在该实施例中,通过将一个或多个对象ob-n分配到一个或多个 时间线LINE-i0和时间线LINE-0j并将分配了对象ob-n的全部或部分时间线从空闲状态切换到激活状态来演奏乐句的乐曲。这里,处于空闲状态的时间线被称为“非活动时间线”,而处于激活状态下的时间线被称为“活动时间线”。 
在本实施例中,与第一实施例类似,通过样本确定任务和样本排布任务来生成一段音乐。下面描述本实施例在样本确定任务和样本排布任务中的操作。在样本确定任务中,用户执行对象开发操作、搜索条件指定操作、手动演奏操作、对象存储操作等等,并确定用来生成一段音乐的声音样本。当执行了这些操作时,CPU 22执行与第一实施例相同的处理。 
在样本排布任务中,用户首先执行时间线矩阵开发操作。当执行了时间线矩阵开发操作时,CPU 22在时间线管理处理31中将作为非活动时间线集合的时间线矩阵MTRX显示在显示单元17的显示区域中。如图16所示,时间线矩阵MTRX中的时间线LINE-i0(i=1~4)以每条时间线长度的1/4为间距在垂直方向上排布。同样,时间线LINE-0j(j=1~4)以与时间线LINE-i0(i=1~4)相同的间隔在水平方向上排布。 
更具体地说,在时间线LINE-i0(i=1~4)中最上部的时间线LINE-10与时间线LINE-0j(j=1~4)的上端相交,并在交点处分别形成网格点gp-1j。位于时间线LINE-10下方的时间线LINE-20在时间线LINE-0j的三个分点(这三个分点将时间线LINE-0j的水平长度分成四等份)之中最上部的分点处与每条时间线LINE-0j(j=1~4)相交,并在交点处分别形成网格点gp-2j(j=1~4)。位于时间线LINE-20下方的时间线LINE-30在时间线LINE-0j的三个分点(这三个分点将整个时间线LINE-0j水平地分成四等份)之中的中间分点处与每条时间线LINE-0j(j=1~4)相交,并在交点处分别形成网格点gp-3j(j=1~4)。位于时间线LINE-30下方的时间线LINE-40在时间线LINE-0j的三个分点(这三个分点将整个时间线LINE-0j水平地分成四等份)之中的最底部分点处与每条时间线LINE-0j(j=1~4)相交,并在交点处分别形成网格点gp-4j(j=1~4)。 
平行于时间线LINE-i0(i=1~4)的网格线g分别处在时间线LINE-i0(i=1~4)处、将两条时间线LINE-i0之间的部分的每一个都均分的位置处、以及在时间线LINE-40下方且与其之间的距离为等于将时间线LINE-40与LINE-30之间的部分分成两等份中的每个等份的长度的位置处。此外,平行于时间线LINE-0j(j=1~4)的网格线g分别处在时间线LINE-0j(j=1~4)处、将两条时间线LINE-0j之间的部分的每一个都均分的位置处、以及在时间线LINE-04右侧且与其之间的距离为等于将时间线LINE-04与LINE-03之间的部分分成两等份中的每个等份的长度的位置处。 
用户在显示时间线矩阵MTRX之后执行对象位置改变操作。如图17所示,通过对象位置改变操作,用户将样本确定任务中开发的对象ob-n移动到时间线矩阵MTRX中的网格点gp-ij(在图17的示例中为网格点gp-11和gp-33)处。之后,通过时间线切换操作,用户将时间线LINE-i0(i=1~4)和时间线LINE-0j(j=1~4)之中在已把对象ob-n移动到其上的网格点gp-ij处相交的时间线从非活动时间线切换成活动时间线。这里,用户可以将在已把对象ob-n移动到其上的网格点gp-ij处相交的全部或部分时间线进行切换。 
CPU 22在时间线矩阵MTRX中的一个或多个时间线为活动的同时执行自动演奏处理34。在本实施例中的自动演奏处理34中,当对象ob-n处在时间线矩阵MTRX中的网格点gp-ij处时,CPU 22将位于具有时间线LINE-i0和LINE-0j(它们在网格点gp-ij处相交)的网格点gp-ij处的对象ob-n的分配关系或从属关系确定为:时间线LINE-i0和LINE-0j共享位于网格点gp-ij处的对象ob-n(即,位于网格点gp-ij处的对象ob-n同时属于时间线LINE-i0和LINE-0j)。 
更具体地说,每当时间线矩阵MTRX中的时间线LINE-i0或LINE-0j从非活动时间线切换到活动时间线时,CPU 22就发起一个对应于时间线LINE-i0或LINE-0j的时间线任务tsk-i0或tsk-0j,并执行所发起的时间线任务。 
在对应于时间线LINE-i0或LINE-0j的一个时间线任务tsk-i0或tsk-j中,CPU 22将每个处在时间线的网格点gp-ij处的对象ob-n都 确定为属于该条时间线。随后,CPU 22重复进行控制以在每个持续时间T产生由属于时间线的对象ob-n所代表的声音。该处理详细描述如下。 
在对应于时间线LINE-i0的时间线任务tsk-i0中,CPU 22在持续时间T期间周期性地重复将定时指针62从时间线LINE-i0的左端移向右端的操作的同时,监控定时指针62的x轴的值。当位于时间线LINE-i0的网格点gp-ij处的对象ob-n的x轴的值与定时指针62的x轴的值一致时,CPU 22利用对象ob-n的x轴的值与定时指针62的x轴的值匹配时的时刻作为声音样本的声音产生定时,来执行对应于对象ob-n的声音样本的声音产生的处理。 
在对应于时间线LINE-0j的时间线任务tsk-0j中,CPU 22在持续时间T期间周期性地重复将定时指针62从时间线LINE-0j的上端移向下端的操作的同时,监控定时指针62的y轴的值。当位于时间线LINE-0j的网格点gp-ij处的对象ob-n的y轴的值与定时指针62的y轴的值一致时,CPU 22确定对象ob-n的y轴的值与定时指针62的y轴的值匹配时的时刻为声音产生定时,并执行对应于对象ob-n的声音样本的声音产生的处理。 
用户在需要时还可以执行时间线位置改变操作。通过本实施例中的时间线位置改变操作,用户可以将时间线矩阵MTRX中的时间线LINE-i0或LINE-0j转到该时间线与位于时间线两侧的相邻的两个网格线g之一重叠的位置处。用户可以对时间线LINE-i0(i=1~4)和LINE-0j(j=1~4)之中在网格点gp-ij处存在对象ob-n的时间线执行时间线位置改变操作,还可以对时间线LINE-i0(i=1~4)和LINE-0j(j=1~4)之中在网格点gp-ij处不存在对象ob-n的时间线执行时间线位置改变操作。用户可以对非活动时间线执行时间线位置改变操作,也可以对活动时间线执行时间线位置改变操作。 
在本实施例中的对象管理处理30中,在被用户执行了时间线位置改变操作的时间线的网格点gp-ij(在图18的示例中是时间线LINE-03的网格点gp-33)处存在对象ob-n的情况下,CPU 22将对象ob-n随着用户已经对其执行了时间线位置改变操作的时间线的移 动而移动,如图18所示。另外,CPU 22以代表移动后的对象ob-n的水平和垂直位置的信息来对RAM 23中的对象管理信息进行重写,该对象管理信息与已被用户执行了时间线位置改变操作的时间线的网格点gp-ij上的对象ob-n相关联。 
下面参照具体示例来描述本实施例中的利用时间线矩阵MTRX和对象ob-n演奏的各种乐曲以及乐曲自动演奏的各种模式。 
在图19(A)的示例中,在时间线矩阵MTRX的网格点gp-11处存在对象ob-1,在网格点gp-14处存在对象ob-2,在网格点gp-33处存在对象ob-3。另外,在网格点gp-34处存在对象ob-4,在网格点gp-42处存在对象ob-5,在网格点gp-43处存在对象ob-6。在该示例中,时间线LINE-10、LINE-30和LINE-03是活动时间线。 
在该示例中,CPU 22发起与时间线LINE-10、LINE-30和LINE-03对应的时间线任务tsk-10、tsk-30和tsk-03,并相互并行地和独立地执行这三个时间线任务tsk-10、tsk-30和tsk-03。在时间线任务tsk-10中,CPU 22在将持续时间T分成四等份的时刻t1、t2、t3和t4之中的时刻t1处执行对象ob-1的声音样本的声音产生,并在时刻t4处执行对象ob-2的声音样本的声音产生,如图19(B)所示。在时间线任务tsk-30中,CPU 22在时刻t3处执行对象ob-3的声音样本的声音产生,并在时刻t4处执行对象ob-4的声音样本的声音产生,如图19(C)所示。在时间线任务tsk-03中,CPU 22在时刻t3处执行对象ob-3的声音样本的声音产生,并在时刻t4处执行对象ob-6的声音样本的声音产生,如图19(D)所示。 
通过将如19(A)的示例中的活动时间线LINE-03转换成非活动时间线并将非活动时间线LINE-04转换成活动时间线来得到图20(A)的示例。在这种情况下,CPU 22发起并执行对应于时间线LINE-04的时间线任务tsk-04,而不是对应于时间线LINE-03的时间线任务tsk-03。在时间线任务tsk-04中,CPU 22在将持续时间T分成四等份的时刻t1、t2、t3和t4之中的时刻t1处执行对象ob-2的声音样本的声音产生,并在时刻t3处执行对象ob-4的声音样本的声音产生,如图20(E)所示。 
通过将图19(A)的示例中的活动时间线LINE-03在x轴方向上移动到使得时间线LINE-03与右边网格线g的重叠的位置,来得到图21(A)的示例。在已在x轴方向上如该示例般移动了时间线LINE-03的情况下,在时间线LINE-03的网格点gp-33和gp-43处的对象ob-3和ob-4也随着时间线LINE-03移动到右边网格线g。剩下两条活动时间线之中的时间线LINE-30与时间线LINE-03共享对象ob-3。因此,在将时间线LINE-03移动到右边网格线g之后,CPU 22在对应于时间线LINE-30的时间线任务tsk-30中在时刻(t3+t4)/2处执行声音样本的声音产生,在时间线LINE-03被移动之前在时刻t3处执行该声音样本,如图21(C’)所示。 
本实施例中的声音搜索/音乐演奏程序29在显示单元17的显示区域中显示了如上所述的时间线矩阵MTRX。在自动演奏处理34中,CPU 22将位于时间线矩阵MTRX中具有两条时间线(它们在网格点gp-ij处相交)的网格点gp-ij处的对象ob-n的分配关系确定为:所述时间线共享位于网格点gp-ij处的对象ob-n。CPU 22根据分配关系来确定对应于每个活动时间线的乐句中包括的声音样本、和该声音样本的声音产生定时。因此,用户可以通过诸如将对象ob-n放置在时间线矩阵MTRX中期望的网格点gp-ij上以选择要激活的时间线之类的简单操作,来生成一段包括了在时间轴上重叠的多个乐段的乐句的音乐。 
类似于第一实施例,在本实施例中,当执行了布置存储操作时,CPU 22在乐曲信息管理处理32中将比如显示区域中的时间线LINE-i0和LINE-0j的位置、以及位于网格点gp-ij处的对象ob-n的位置(x轴的值,y轴的值)之类的信息确定为排布信息。对象ob-n的一组这样的排布信息和对象管理信息被作为布置信息存储在硬盘25中。另外,当执行了布置读取操作时,CPU 22根据布置信息来在显示区域中重新建立显示内容。因此,通过将借助于布置存储操作而存储在硬盘25中的布置信息复制到安装了声音搜索/音乐演奏程序29的另一台计算机的硬盘25上,用户可以利用所述另一台计算机继续进行样本排布任务。 
虽然上面描述了本发明的第一和第二实施例,但根据本发明的其它实施例也是可行的。下面是一些例子。 
(1)在第一和第二实施例中,在已经复制了显示单元17的显示区域中的对象ob-n的情况下,CPU 22可以利用与由原始对象ob-n所代表的声音样本共有的参数来控制由复制的对象ob’-n所代表的声音的声音产生的属性(比如音高、音量、声音产生定时的延迟量)。 
(2)在第一和第二实施例中,在音乐数据md-k(k=1,2,...)中包括的声音样本之中,对对应于边缘声音和颗粒声音的声音样本执行声音产生,以产生由对象ob-n代表的声音。然而,除了边缘和颗粒声音以外,还可以对与按照声音特征进行分类或识别的任何声音的全体单元相对应的声音样本执行声音产生。 
(3)在第一实施例中,根据对象ob-n和时间线LINE-i的位置关系来确定属于每条时间线LINE-i的对象ob-n。然而,用于确定时间线LINE-i与对象ob-n之间的分配关系的方法并不局限于该方法。例如,可以通过执行将要分配给时间线LINE-i的一个或多个对象ob-n逐个地分配的操作,或者通过执行在显示了时间线LINE-i和对象ob-n时操作如鼠标14之类的指针设备以绘制包围了要分配给时间线LINE-i的一个或多个对象ob-n的曲线的操作,来确定属于每条时间线LINE-i的对象ob-n。 
(4)在第一和第二实施例中,对象ob-n的形状可以是圆形、多边形或任意形状。在这种情况下,可以根据对象ob-n的形状改变来改变搜索条件SC-n。例如,当对象ob-n是五边形时,可以根据五边形的5个顶点到其中心的距离来单独控制如特征量P和搜索所需编号Num之类的5类搜索条件SC-n。 
(5)虽然在第一和第二实施例中通过搜索条件指定操作来改变每个对象ob-n的显示颜色的密度(或暗度),但是还可以通过相同操作来改变显示颜色的色调。 
(6)在第一和第二实施例中,CPU 22还可以根据操作单元13的操作来设置由显示单元17的显示区域中显示的时间线LINE-i(i=1,2,...)所代表的每个乐句的小节数和拍子。另外,在第一实施 例中,CPU 22可以与由时间线LINE-i所代表的乐句的拍子相关联地来增加或减少时间线LINE-i的节拍引导线63-j(j=1,2,...)的数量。 
(7)在第一和第二实施例中,CPU 22还可以根据操作单元13的操作来设置对时间线LINE-i、LINE-i0和LINE-0j所代表的每个乐句的速度进行确定的参数(例如,每分钟的节拍数(BPM))。CPU 22还可以根据操作单元13的操作来设置对时间线LINE-i、LINE-i0和LINE-0j所代表的每个乐句的一个节拍的时间长度进行确定的参数(例如,时基(分辨率))。 
(8)在第一实施例中,当存在于时间线LINE-i的占用区域中的对象ob-n的左上角的x轴的值与定时指针62的x轴的值匹配时,CPU 22在对应于一条时间线LINE-i的时间线任务tsk-i中执行对应于该对象ob-n的声音样本的声音产生。然而,CPU 22还可以在该对象的不同位置(比如其中心、左下角、右上角或右下角等)的x轴的值与定时指针62的x轴的值匹配时执行对应于该对象ob-n的声音样本的声音产生。 
(9)在第一实施例中,CPU 22在通过对象开发操作所指定的时间线LINE-i中的任意位置处开发对象ob-n,而不管时间线LINE-i中的节拍引导线63-j(j=1,2,...)的数量。然而,CPU 22还可以执行量化控制来校正在时间线LINE-i中开发的对象ob-n的位置,以使对象ob-n的x轴的值(例如,对象ob-n的左上角的x轴的值)与最接近的节拍引导线63-j的x轴的值相匹配。 
(10)在第一和第二实施例中,每条时间线LINE-i是在水平或垂直方向上延伸的直线图像。然而,时间线LINE-i还可以是曲线(包括封闭曲线)。 
(11)在第一实施例中,可以允许通过在y轴方向扩展时间线LINE-i的节拍引导线63-j(j=1~5)的长度的操作来增加每条时间线LINE-i的占用区域的面积。 
(12)在第一和第二实施例中,不必沿着从时间线LINE-i或LINE-i0的左端到右端的轨迹、或沿着从时间线LINE-0j的上端到下端的轨迹以固定速度来移动每条时间线LINE-i、LINE-i0和LINE-0j 的定时指针62。例如,可以在从时间线LINE-i或LINE-i0的左端到右端的轨迹上的特定部分变宽或变窄的同时,或者在从时间线LINE-0j的上端到下端的轨迹上的特定部分变宽或变窄的同时,移动定时指针62。 
(13)在第一实施例中的声音处理的处理36中,CPU 22改变诸如音高、音量和声音产生定时的延迟量之类的参数。然而,在声音处理的处理36中,CPU 22可以执行混音处理或均衡处理,并且可以根据从时间线LINE-i到对象ob-n的距离dy来改变确定这些处理的结果的参数。 
(14)在第一实施例中,当已经设置了参数链接模式时,CPU 22根据从时间线LINE-i到对象ob-n的距离dy来改变对应于对象ob-n的声音样本的音高、音量和声音产生定时的延迟量。然而,CPU 22可以执行控制,以便随着从时间线LINE-i到对象ob-n的距离dy增加,从对应于对象ob-n的搜索结果SR-n中包括的多个声音样本中选择具有更低音高的声音样本,并且随着从时间线LINE-i到对象ob-n的距离dy减小,从对应于对象ob-n的搜索结果SR-n中包括的多个声音样本中选择具有更高音高的声音样本。 
(15)在第一和第二实施例中的操作日志管理处理37中,每次根据手动演奏操作对与显示区域中的对象ob-n相关联的声音样本执行声音产生时,CPU 22可以将一对声音样本和该声音样本的声音产生时间转换成顺序数据,并且随后可以将顺序数据包括在对象ob-n的对象管理信息的顺序数据中。 
(16)在第一和第二实施例中,CPU 22可以将根据显示单元17的显示区域中显示的时间线LINE-i、LINE-i0和LINE-j与属于这些时间线LINE-i、LINE-i0和LINE-0j的一个或多个对象ob-n之间的位置关系而产生的每个乐句转换成顺序数据,并随后可以将顺序数据与新的对象ob-n(例如对象ob-10)相关联。随后,在将对象ob-10分配给另一时间线(例如时间线LINE-6)的情况下,CPU 22可以在根据对象ob-10与时间线LINE-6之间的位置关系所确定的声音产生定时处对与对象ob-10关联的顺序数据进行再现。 
(17)在第一实施例中,CPU 22可以执行控制,以便随着显示单元17的显示区域中的时间线LINE-i的位置升高而增加定时指针62的移动速度,并且可以执行控制,以便随着显示单元17的显示区域中的时间线LINE-i的位置下降而减小定时指针62的移动速度。另外,CPU 22可以将显示单元17的显示区域中显示的对象ob-n向下移动以显示为下降,并可以根据定义重心之类的参数的设置来控制对象ob-n的移动速度。 
(18)在第一和第二实施例中,每个对象ob-n是代表声音样本的搜索结果SR-n的图像,并且在对应于一条时间线LINE-i、LINE-i0或LINE-0j的一个时间线任务tsk-i、tsk-i0或tsk-0j中,CPU 22在属于时间线LINE-i、LINE-i0或LINE-0j的对象ob-n的x轴的值或y轴的值与定时指针62的x轴的值或y轴的值相匹配时,选择包括在与对象ob-n的搜索结果SR-n相对应的搜索结果SR-n之中的一个或多个声音样本之一,并且CPU 22通过声音系统91执行所选声音样本的声音产生。然而,每个对象ob-n还可以是代表用于声音产生的一个或多个声音样本的图像。在这个模式下,每个对象ob-n(n=1,2,...)预先与一个或多个声音样本相关联。随后,在与一条时间线LINE-i、LINE-i0或LINE-0j(例如时间线LINE-7)对应的一个时间线任务tsk-7中,CPU 22在属于时间线LINE-7的对象ob-n的x轴的值与定时指针62的x轴的值相匹配时,通过声音系统91来执行与属于时间线LINE-7的对象ob-n相关联的声音样本的声音产生。 
(19)在第一和第二实施例中,本发明被应用于类似于循环音序器的应用程序中。然而,本发明还可以应用于除循环音序器之外的音序器中。例如,可以在显示单元17的显示区域中显示多条时间线LINE-i(i=1,2,...),所述多条时间线具有不同的速度或拍子并且每一条对应于一段音乐的演奏时间,并且可以将时间线LINE-i(i=1,2,...)的位置设置为时间线LINE-i(i=1,2,...)共享一个或多个对象ob-n。另外,可以在显示单元17的显示区域中显示与一段音乐的演奏时间对应的时间线LINE-1和与在一段音乐的演奏时间之内重复的乐句的持续时间T对应的时间线LINE-2,并且可以将时间线LINE-1和LINE-2的 位置设置为使时间线LINE-1和LINE-2共享一个或多个对象ob-n。 
(20)在第一和第二实施例中,即使当一个对象ob-n被分配给两条或更多时间线时,也可在同一数据库(当对象ob-n是边缘声音对象时为声音样本数据库27,当对象ob-n时颗粒声音对象时为声音样本数据库28)中搜索由对象ob-n代表的声音样本。然而,在对每种声音样本类型(例如每个边缘声音和颗粒声音)提供多个数据库并且将一个对象ob-n分配给两个或更多时间线的情况下,在其中搜索相应声音样本的数据库可以针对分配有对象ob-n的每条时间线而不同。 
例如,本实施例以如下方式来实现。首先,在硬盘25中提供了声音样本数据库27A、27B、28A和28B,其中,在声音样本数据库27A中,与特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE相关联地存储了在音乐数据md-k中包括的边缘声音之中听起来沉重的边缘声音的声音样本;在声音样本数据库27B中,与特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE相关联地存储了在音乐数据md-k中包括的边缘声音之中听起来轻柔的边缘声音的声音样本;在声音样本数据库28A中,与特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE相关联地存储了在音乐数据md-k中包括的颗粒声音之中听起来沉重的颗粒声音的声音样本;在声音样本数据库28B中,与特征量PLOW、PMID-LOW、PMID-HIGH、PHIGH、PTIME和PVALUE相关联地存储了在音乐数据md-k中包括的颗粒声音之中听起来轻柔的颗粒声音的声音样本。 
另外,CPU 22根据操作单元13的操作来在显示单元17的显示区域中显示时间线矩阵MTRX和对象ob-n,类似于第二实施例的过程。CPU 22随后发起并执行与时间线矩阵MTRX的时间线LINE-i0(i=1~4)和LINE-0j(j=1~4)之中活动时间线相对应的时间线任务tsk-i0和tsk-0j。随后,在时间线任务tsk-i0中,CPU 22在声音样本数据库27A(或28A)中搜索由位于时间线LINE-i0的网格点gp-ij处的对象ob-n代表的边缘声音(或颗粒声音)的声音样本,并执行搜索到的声音样本的声音产生。在时间线任务tsk-0j中,CPU 22在 声音样本数据库27B(或28B)中搜索由位于时间线LINE-0j的网格点gp-ij处的对象ob-n代表的边缘声音(或颗粒声音)的声音样本,并执行搜索到的声音样本的声音产生。 
根据这种配置,每当沿着时间线LINE-i0的长度方向移动的定时指针62与位于时间线LINE-i0的网格点gp-ij处的对象ob-n重叠时,CPU 22产生感觉沉重的声音,并且每当沿着时间线LINE-0j的长度方向移动的定时指针62与位于时间线LINE-0j的网格点gp-ij处的对象ob-n重叠时,CPU 22产生感觉轻柔的声音。因此,可以生成更具有创造性的一段音乐。 
(21)在第二实施例中,CPU 22可以将能够穿过时间线矩阵MTRX中的网格点gp-ij(i=1~4,j=1~4)之中的多个网格点gp-ij的轨迹定义为时间线LINE”,并且可以重复控制以在根据延伸后的时间线LINE”的长度方向上的对象ob-n的位置而确定的声音产生定时处执行网格点gp-ij上的每个对象ob-n所代表的每个声音的声音产生。 
例如,本实施例以如下方式实现。用户在执行将对象ob-n排布在时间线矩阵MTRX中的网格点gp-ij处的操作之后执行网格点选择操作。如图22(A)所示,通过网格点选择操作,用户顺序地选择包括其上排布了对象ob-n的网格点在内的多个网格点gp-ij(图22(A)的示例中的网格点gp-11、gp-12、gp-13、gp-33和gp-34)。通过该选择操作,用户还选择在最终所选网格点gp-ij处相交的两条时间线LINE-i0和LINE-0j之一的一个末端(在图22(A)的示例中是时间线LINE-30的右端)。 
在自动演奏处理34中,当执行了网格点选择操作时,CPU 22将能够穿过通过网格点选择操作所选的网格点gp-ij以及时间线LINE-i0或LINE-0j的末端的轨迹定义为时间线LINE”。CPU 22随后通过将处在最初通过网格点选择操作所选的网格点gp-ij与通过相同操作所选的时间线LINE-i0末端之间的时间线LINE-i0的数量“NI”(在图22(A)的例子中NI=2)和时间线LINE-0j的数量“NJ”(在图22(A)的例子中NJ=4)代入下面的公式,来得到时间长度T”。CPU 22确定所得到的时间长度T”是对应于时间线LINE”的持续时间T”。 
T”=(NI+NJ)×T/4...(1) 
CPU 22随后发起并执行对应于时间线LINE”的时间线任务tsk”。图22(B)和图22(C)分别示出时间线LINE”和延伸后的时间线LINE”。如图22(B)和图22(C)所示,在对应于时间线LINE”的时间线任务tsk”中,CPU 22在持续时间T”期间重复进行用于将定时指针62从时间线LINE”的开端移动到末端的操作的同时,监控定时指针62的x轴的值和y轴的值。CPU 22随后在处在时间线LINE”的网格点gp-ij处的对象ob-n的x轴的值和y轴的值与定时指针62的x轴的值和y轴的值相匹配时,执行用于产生与对象ob-n相对应的声音样本的声音的处理。 
(22)在第二实施例中,包括了以直角相交的时间线LINE-i0(i=1~4)和时间线LINE-0j(j=1~4)的图像被定义为时间线矩阵MTRX。然而,包括了以小于90度或大于90度的角度相交的时间线LINE-i0(i=1~4)和时间线LINE-0j(j=1~4)的图像也可以被定义为时间线矩阵MTRX。 
(23)在第二实施例中,包括在时间线矩阵MTRX中的时间线LINE-i0的数量“M”可以是2或3,也可以是5或更大。另外,包括在时间线矩阵MTRX中的时间线LINE-0j的数量“N”可以是2或3,也可以是5或更大。包括在时间线矩阵MTRX中的时间线LINE-i0的数量“M”与包括在时间线矩阵MTRX中的时间线LINE-0j的数量“N”可以不同。时间线矩阵MTRX的多条时间线LINE无须全部都与其它时间线LINE相交来形成网格点gp。时间线矩阵MTRX的多条时间线LINE中至少两条可以相交来形成一个网格点gp。 
(24)在第二实施例中,时间线矩阵MTRX是一个二维矩阵,其中,在垂直方向上布置的时间线LINE-i0(i=1~4)与在水平方向上布置的时间线LINE-0j(j=1~4)交叉。然而,时间线矩阵MTRX还可以是三维矩阵,其中,在垂直方向上布置的多条时间线LINE、在水平方向上布置的多条时间线、以及在与水平和垂直方向均垂直相交的方向(即深度方向)上布置的多条时间线交叉。 
(25)在第二实施例中,还可以在时间线矩阵MTRX中的相邻 时间线LINE-i0之间以及相邻时间线LINE-0j之间以相等间隔提供3个或更多网格线g。可以允许用户通过操作单元13的操作设置相邻时间线LINE-i0之间的网格线g的数量和相邻时间线LINE-0j之间的网格线g的数量。 
(26)在第一实施例中,在显示单元17的显示区域中显示的所有时间线LINE-i是在相同方向(x轴方向)上延伸的线型图像。然而,CPU 22可以在显示单元17的显示区域中显示在第一方向(例如x轴方向)上延伸的线型图像的时间线LINE-i、以及在第二方向(例如y轴方向)上延伸的线型图像的时间线LINE-i,并可以允许用户自由改变显示区域中这两类时间线LINE-i的位置关系。于是,当显示单元17的显示区域中在第一方向上延伸的时间线LINE-i(例如时间线LINE-8)和在第二方向上延伸的时间线LINE-i(例如时间线LINE-9)相交并且在这两条时间线LINE-8和LINE-9相交的网格点处存在对象ob-n的情况下,在自动演奏处理34中,CPU 22可以将时间线LINE-8和LINE-9的分配关系确定为在网格点处相交的时间线LINE-8和LINE-9共享该网格点处的对象ob-n。 
(27)在第一和第二实施例中,还可以在声音样本数据库27和28中与每个声音样本的起点和终点的时刻tS、tE相关联地存储除了低带强度PLOW、中低带强度PMID-LOW、中高带强度PMID-HIGH、高带强度PHIGH、峰值位置PTIME和峰值强度PVALUE以外的各种特征量。 
(28)在第一和第二实施例中,可以将用于边缘声音的声音样本数据库27和用于颗粒声音的声音样本数据库28结合成存储用于制作一段音乐的声音素材的一个声音样本数据库。 
(29)在第二实施例中的自动演奏处理34中,可以将时间线矩阵MTRX的网格点gp-ij处存在的对象ob-n定义为同属于在网格点gp-ij处相交的两条时间线LINE-i0和LINE-0j,并且可以将时间线LINE-i0(或时间线LINE-0j)上偏离网格点gp-ij的位置处的对象ob-n定义为仅属于时间线LINE-i0(或时间线LINE-j)。在这种情况下,不仅与时间线LINE-i0(或时间线LINE-0j)完全重叠的对象ob-n、而且处在时间线LINE-i0的上方或下方(或时间线LINE-0j的左侧或 右侧)的与时间线LINE-i0(或时间线LINE-0j)相距预定范围之内的对象ob-n也可以定义为属于时间线LINE-i0(或时间线LINE-0j)。 

Claims (9)

1.一种音乐演奏设备,包括:
操作部分;
显示部分;
时间线管理处理部分,其根据操作部分的操作来在显示部分上显示一条或多条时间线,每条时间线都是代表在一段音乐中重复的一个或多个声音的序列的持续时间的图像;
对象管理处理部分,其根据操作部分的操作来在显示部分上显示一个或多个对象,每个对象都是对应于并代表要产生的声音的一个符号;和
音乐演奏处理部分,其确定每个对象对显示部分上显示的一条或多条时间线的从属关系,并在对应于每条时间线的持续时间中,针对每条时间线同时地并独立地重复进行产生与每个对象相对应的声音的控制,以使得在根据相应对象在该相应对象所属的时间线的长度方向上的位置而确定的声音产生定时处产生每个声音。
2.根据权利要求1所述的音乐演奏设备,其中音乐演奏处理部分根据显示部分的显示区域中的对象与时间线之间的位置关系来确定对象对时间线的从属关系。
3.根据权利要求2所述的音乐演奏设备,其中音乐演奏处理部分根据从相应对象到该相应对象所属的时间线之间的距离来控制参数,该参数表示由该相应对象代表的声音的声音产生模式。
4.根据权利要求1至3中任一个所述的音乐演奏设备,其中当时间线为多条时,
时间线管理处理部分在显示部分上将时间线显示为相互交叉,
对象管理处理部分显示在时间线相互交叉处的网格点处的对象,和
音乐演奏处理部分将对象的从属关系确定为所述对象属于在所述对象放置的网格点处相互交叉的两条时间线。
5.根据权利要求1所述的音乐演奏设备,还包括:
存储部分,其存储代表了多个声音的素材和与多个声音对应的特征量数据,特征量数据代表声音的多个特征;和
搜索控制部分,其控制对象管理处理部分来显示具有指示搜索条件的形式的对象,所述搜索条件用于搜索具有期望特征的声音,其中
搜索控制部分根据操作部分的操作来相互关联地改变对象的形式和期望声音的搜索条件,并根据搜索条件来搜索存储部分中的特征量数据以对具有满足搜索条件的特征的至少一个声音进行定位。
6.根据权利要求5所述的音乐演奏设备,其中
搜索控制部分控制对象管理处理部分来显示具有指示搜索条件的形式的对象,期望声音的特征和要定位的期望声音的所需编号作为所述搜索条件,并且其中
搜索控制部分根据搜索条件来搜索存储部分中的特征量数据,以对具有满足搜索条件的特征的声音的所需编号进行定位。
7.根据权利要求5所述的音乐演奏设备,其中
搜索控制部分控制对象管理处理部分来根据操作部分的操作在显示部分的显示区域上显示新对象,所述新对象从显示区域上显示的原始对象复制而来,从而新对象具有与原始对象相同的形式,并且其中
搜索控制部分相互同步地更新由新对象的形式所指示的搜索条件和由原始对象的形式所指示的搜索条件。
8.一种音乐演奏设备的操作方法,包括:
时间线管理步骤,用于根据操作单元的操作在显示单元上显示一条或多条时间线,每条时间线都是一个图像,该图像代表在一段音乐中重复的一个或多个声音的序列的持续时间;
对象管理步骤,用于根据操作部分的操作来在显示单元上显示一个或多个对象,每个对象都是对应于并代表要产生的声音的符号;
确定步骤,用于确定每个对象对显示单元上显示的一条或多条时间线的从属关系;和
音乐演奏步骤,用于在对应于每条时间线的持续时间中针对每条时间线同时地并独立地重复进行产生与每个对象相对应的声音的控制,以使得在根据相应对象在该相应对象所属的时间线的长度方向上的位置而确定的声音产生定时处产生每个声音。
9.根据权利要求8所述的操作方法,还包括:
存储步骤,用于存储代表了多个声音的素材和与多个声音对应的特征量数据,特征量数据代表声音的多个特征;和
搜索控制步骤,其控制对象管理步骤显示具有指示搜索条件的形式的对象,所述搜索条件用于搜索具有期望特征的声音,其中
在搜索控制步骤中,根据操作单元的操作来相互关联地改变对象的形式和期望声音的搜索条件,并根据搜索条件来搜索特征量数据以对具有满足搜索条件的特征的至少一个声音进行定位。
CN2010101455650A 2009-04-08 2010-04-08 音乐演奏设备和音乐演奏设备的操作方法 Expired - Fee Related CN101859559B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2009093979 2009-04-08
JP2009-093978 2009-04-08
JP2009093978A JP5532659B2 (ja) 2009-04-08 2009-04-08 音検索装置およびプログラム
JP2009-093979 2009-04-08
JP2010056129A JP5509948B2 (ja) 2009-04-08 2010-03-12 演奏装置およびプログラム
JP2010-056129 2010-03-12

Publications (2)

Publication Number Publication Date
CN101859559A CN101859559A (zh) 2010-10-13
CN101859559B true CN101859559B (zh) 2012-09-05

Family

ID=42139997

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2010101455650A Expired - Fee Related CN101859559B (zh) 2009-04-08 2010-04-08 音乐演奏设备和音乐演奏设备的操作方法

Country Status (3)

Country Link
US (1) US9123318B2 (zh)
EP (1) EP2239727A1 (zh)
CN (1) CN101859559B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5842545B2 (ja) * 2011-03-02 2016-01-13 ヤマハ株式会社 発音制御装置、発音制御システム、プログラム及び発音制御方法
US9721551B2 (en) * 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US11726979B2 (en) 2016-09-13 2023-08-15 Oracle International Corporation Determining a chronological order of transactions executed in relation to an object stored in a storage system
US10733159B2 (en) 2016-09-14 2020-08-04 Oracle International Corporation Maintaining immutable data and mutable metadata in a storage system
US10860534B2 (en) 2016-10-27 2020-12-08 Oracle International Corporation Executing a conditional command on an object stored in a storage system
US10191936B2 (en) 2016-10-31 2019-01-29 Oracle International Corporation Two-tier storage protocol for committing changes in a storage system
US10275177B2 (en) 2016-10-31 2019-04-30 Oracle International Corporation Data layout schemas for seamless data migration
US10180863B2 (en) 2016-10-31 2019-01-15 Oracle International Corporation Determining system information based on object mutation events
US10169081B2 (en) 2016-10-31 2019-01-01 Oracle International Corporation Use of concurrent time bucket generations for scalable scheduling of operations in a computer system
US10956051B2 (en) 2016-10-31 2021-03-23 Oracle International Corporation Data-packed storage containers for streamlined access and migration
JP6737300B2 (ja) * 2018-03-20 2020-08-05 ヤマハ株式会社 演奏解析方法、演奏解析装置およびプログラム
EP3982357A4 (en) * 2019-05-31 2022-12-21 Roland Corporation MUSICAL SOUND PROCESSING DEVICE AND MUSICAL SOUND PROCESSING METHOD
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225200A (ja) * 2007-03-14 2008-09-25 Yamaha Corp 曲編集装置およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2580720B2 (ja) * 1988-06-23 1997-02-12 ヤマハ株式会社 自動演奏装置
JP3166455B2 (ja) 1993-10-25 2001-05-14 ヤマハ株式会社 演奏データ作成装置
US20070163425A1 (en) * 2000-03-13 2007-07-19 Tsui Chi-Ying Melody retrieval system
US6528715B1 (en) * 2001-10-31 2003-03-04 Hewlett-Packard Company Music search by interactive graphical specification with audio feedback
US7179982B2 (en) * 2002-10-24 2007-02-20 National Institute Of Advanced Industrial Science And Technology Musical composition reproduction method and device, and method for detecting a representative motif section in musical composition data
US7390958B2 (en) * 2003-06-25 2008-06-24 Yamaha Corporation Method for teaching music

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008225200A (ja) * 2007-03-14 2008-09-25 Yamaha Corp 曲編集装置およびプログラム

Also Published As

Publication number Publication date
US9123318B2 (en) 2015-09-01
US20100257995A1 (en) 2010-10-14
EP2239727A1 (en) 2010-10-13
CN101859559A (zh) 2010-10-13

Similar Documents

Publication Publication Date Title
CN101859559B (zh) 音乐演奏设备和音乐演奏设备的操作方法
Bell Can we afford these affordances? GarageBand and the doubleedged sword of the digital audio workstation
Pressing Cybernetic issues in interactive performance systems
JP5842545B2 (ja) 発音制御装置、発音制御システム、プログラム及び発音制御方法
TW558715B (en) Music and image generating device
JP3882788B2 (ja) アプリケーションソフトのリモート制御方法及び電子鍵盤楽器
Cabral et al. Crosscale: A 3D virtual musical instrument interface
CN100573659C (zh) 具有兼容软件模块的计算机化乐器
Armitage et al. Studying Subtle and Detailed Digital Lutherie: Motivational Contexts and Technical Needs
US11922910B1 (en) System for organizing and displaying musical properties in a musical composition
CN110706680A (zh) 一种用于双排键演奏的编曲方法
Mandelis Genophone: An evolutionary approach to sound synthesis and performance
JP4438810B2 (ja) 曲編集装置およびプログラム
JP5532659B2 (ja) 音検索装置およびプログラム
Arrasvuori Playing and making music: Exploring the similarities between video games and music-making software
CN112614474B (zh) 一种智能制谱方法及终端
Carpenter et al. MusicFabrik: a playable, portable speaker
Nahmani Logic Pro-Apple Pro Training Series: Professional Music Production
Pedrosa et al. Perceptually informed roles for haptic feedback in expressive music controllers
Prakashkumar et al. Clay Time-Tangible Interaction with Polymer Clay for Auditory Feedback
JP2904022B2 (ja) 自動伴奏装置
King Unlocking the Power of Conceptual Metaphor and Image Schematic Constructs in Designing An Alternate Paradigm for Loop-Based, Rhythmic Electronic Performance
Dickie A computer-aided music composition application using 3D graphics: research and initial design
Valsomis Machines drumming
Waugh The Secrets of Computer Composition (MT Mar 1989)

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120905

Termination date: 20180408

CF01 Termination of patent right due to non-payment of annual fee