CN101080763A - 乐曲数据重构装置及方法、音乐内容重放装置及方法 - Google Patents

乐曲数据重构装置及方法、音乐内容重放装置及方法 Download PDF

Info

Publication number
CN101080763A
CN101080763A CNA2005800429317A CN200580042931A CN101080763A CN 101080763 A CN101080763 A CN 101080763A CN A2005800429317 A CNA2005800429317 A CN A2005800429317A CN 200580042931 A CN200580042931 A CN 200580042931A CN 101080763 A CN101080763 A CN 101080763A
Authority
CN
China
Prior art keywords
melody
information
music content
unit
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2005800429317A
Other languages
English (en)
Other versions
CN101080763B (zh
Inventor
山下功诚
宫岛靖
高井基行
佐古曜一郎
寺内俊郎
佐佐木彻
酒井祐市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101080763A publication Critical patent/CN101080763A/zh
Application granted granted Critical
Publication of CN101080763B publication Critical patent/CN101080763B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • G11B27/007Reproducing at a different information rate from the information rate of recording reproducing continuously a part of the information, i.e. repeating
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/038Cross-faders therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • G10H2210/565Manual designation or selection of a tonality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • G10H2220/355Geolocation input, i.e. control of musical parameters based on location or geographic position, e.g. provided by GPS, WiFi network location databases or mobile phone base station position databases
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature or perspiration; Biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

本发明涉及乐曲数据重构装置及方法、音乐内容重放装置及方法,具体提供一种通过在乐曲中反映收听乐曲的用户的心情和偏好以及周围环境,改编乐曲本身的设备。所述设备包括产生同步信号SYNC,以及产生与同步信号同步的音乐改编信息ARI的节奏主单元(210),所述同步信号SYNC包含周期与乐曲的小节对应的信号,和周期与乐曲的节拍对应的信号;根据来自节奏主单元(210)的同步信号SYNC和乐曲改编信息ARI,改编输入的音乐内容的乐曲数据,从而产生输出的乐曲数据并输出所述输出的乐曲数据的节奏从属单元(220)。

Description

乐曲数据重构装置及方法、音乐内容重放装置及方法
技术领域
本发明涉及能够提供重放音频数据的乐曲数据改编设备、乐曲数据改编方法、音乐内容重放设备和音乐内容重放方法,所述重放音频数据与通过电台节目主持人执行的音乐内容编排重放的音频数据等同。
背景技术
随着诸如光盘和硬盘之类存储介质的存储容量的增大,大量的音乐内容可被保存在所述存储介质中。利用大容量存储介质的音乐内容重放设备也是可得到的。
在这样的常规音乐内容重放设备中,查看/收听音乐的用户从大量的音乐内容中选择他或她想要收听的音乐内容,并执行重放操作。
另外,还提供了通过利用关于用户的先前音乐内容的重放历史,向用户推荐候选的重放乐曲的系统(例如,参见未经审查的日本专利申请No.2003-173350)。
发明内容
如上所述,按照惯例,提出了一种方法,其中用户进行选择,或者设备根据先前的重放历史进行选择,从而向用户呈现候选的重放乐曲。但是,在常规的音乐内容重放设备中,如上所述选择的并且将被重放的乐曲只是如乐曲制作人预期那样被重放。从而,允许在重放乐曲中反映个人偏爱的设备,尤其是允许为每个用户进行变调的设备并不存在。
即,就由包括艺术家等的制作方创作的乐曲来说,由于常规的音乐内容重放设备的限制等等,用户所能做的只是按照制作人所预期的固定方式收听乐曲。
但是,如果能够通过改变乐曲的节奏或音程,使乐曲与另一乐曲重混,改编和修改乐曲以致符合指定场合的气氛,正如所谓的“音乐节目主持人”所做的那样,那么预期能够提高乐曲重放的娱乐性。
鉴于上述观点,本发明的目的是允许实时地在乐曲中反映收听用户的心情、偏爱和周围环境,从而改编乐曲,由此使得能够提高乐曲重放的娱乐性。
为了克服上述问题,按照权利要求1的乐曲数据改编设备包括:
节奏主单元,用于产生同步信号,以及产生与同步信号同步的乐曲改编信息,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
节奏从属单元,用于通过根据来自节奏主单元的同步信号和乐曲改编信息,改编音乐内容的输入乐曲数据,产生输出的乐曲数据,并输出所述输出的乐曲数据。
权利要求1的特征允许实时地反映收听用户的心情、偏爱和周围环境,从而根据来自节奏主单元的同步信号和乐曲改编信息改编待重放的音乐内容的乐曲数据。
按照权利要求21的音乐内容重放设备包括:
音乐内容数据存储单元,其中保存多个音乐内容的数据;
第一获取装置,用于从音乐内容数据存储单元获得待重放的音乐内容数据;
节奏主装置,用于产生同步信号,以及产生与同步信号同步的乐曲改编信息,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
节奏从属装置,用于通过根据来自节奏主单元的同步信号和乐曲改编信息,改编由第一获取装置获得的待重放的音乐内容数据,产生输出的乐曲数据,并进行声音重放和输出。
按照权利要求17的特征,当重放保存在音乐内容数据存储单元中的音乐内容时,可按照来自节奏主单元的同步信号和乐曲改编信息,改编待重放的音乐内容的乐曲数据。从而,例如,按照来自节奏主单元的同步信号和乐曲改编信息实时地反映收听乐曲的用户(收听者)的心情、偏爱和周围环境。这允许用户(收听者)在指定时间发出重放乐曲的收听请求。
附图说明
图1是应用本发明的音乐内容重放设备的第一实施例的记录/重放设备的方框图。
图2是图解说明用于第一实施例的记录/重放设备的部分属性信息的示图。
图3是由图1中所示的记录/重放设备执行的处理的一个例子的流程图。
图4是用于说明图1中所示的记录/重放设备的操作的流程图。
图5是图解说明图1中所示的音乐内容存储单元的例子的示图。
图6是图解说明图1中所示的音乐内容存储单元的例子的示图。
图7是说明图1中所示的记录/重放设备的记录处理操作部分的功能方框图。
图8是说明图1中所示的记录/重放设备的记录处理操作的流程图。
图9是说明图1中所示的记录/重放设备的记录处理操作的流程图的一部分。
图10是说明图1中所示的记录/重放设备的重放处理操作部分的功能方框图。
图11是图1中所示的记录/重放设备的主要部分的功能方框图。
图12是说明图11中所示的功能方框图的示图。
图13是图11中所示的功能方框图的一部分的更详细的功能方框图。
图14是图11中所示的功能方框图的一部分的更详细的功能方框图。
图15是说明图11中所示的功能方框图的一部分的示图。
图16是说明图11中所示的功能方框图的计时图。
图17是说明图11中所示的功能方框图的计时图。
图18是说明图11中所示的功能方框图的示图。
图19是图解说明图1中所示的记录/重放设备的重放处理操作的流程图的一部分。
图20是图解说明图1中所示的记录/重放设备的重放处理操作的流程图的一部分。
图21是节奏主单元(它是包括在图11中的一个部分)的处理操作的流程图。
图22是节奏从属单元(它是包括在图11中的一个部分)的处理操作的流程图。
图23是应用本发明的音乐内容重放设备的第二实施例的记录/重放设备的方框图。
图24是图解说明图23中所示的第二实施例的记录/重放设备的重放处理操作部分的功能方框图。
图25是图23中所示的第二实施例的记录/重放设备的主要部分的功能方框图。
图26是图23中所示的功能方框图的一部分的更详细的功能方框图。
图27是节奏主单元(它是包括在图23中的一个部分)的处理操作的流程图。
图28是节奏主单元(它是包括在图23中的一个部分)的处理操作的流程图的一部分。
图29是节奏主单元(它是包括在图23中的一个部分)的处理操作的流程图的一部分。
图30是节奏主单元(它是包括在图23中的一个部分)的处理操作的流程图的一部分。
图31是说明图23中所示的功能方框图的计时图。
具体实施方式
[第一实施例]
下面参考附图说明本发明的第一实施例。图1是应用本发明的音乐内容重放设备的第一实施例以及音乐内容和属性信息记录设备的第一实施例的记录/重放设备的一个例子的结构的方框图。
在第一实施例中,记录/重放设备包括其中视频-声音数据被保存为音乐内容的数据的音乐内容存储单元。除了乐曲的声音数据之外,视频-声音数据可包含视频数据。在第一实施例中,相应乐曲的属性信息伴随音乐内容的数据,以及被保存并通过音乐内容的识别信息与音乐内容的数据相关联。
属性信息不仅包括用于确定与节奏有关的曲调的曲调属性信息(它包含在下面说明的乐曲构成信息中),比如速度、音调(曲调)和弦(chord),而且包括表演者信息、歌词信息、情感信息、周围环境信息等等。当音乐内容包含视频信息时,属性信息可包含和视频的属性有关的信息。
如上所述,当音乐内容被保存在诸如DVD(数字通用光盘)之类的可拆卸(可分离)存储介质中,并且属性信息与音乐内容相结合地记录在存储介质中时,记录在存储介质中的属性信息可被使用。
当音乐内容的数据从诸如DVD之类的存储介质被记录到记录/重放设备的存储单元中时,属性信息与音乐内容的数据相结合地也被记录到记录/重放设备的存储单元中。
当存储介质中没有记录属性信息时,在把音乐内容的数据从存储介质记录到记录/重放设备的存储单元的过程中,记录/重放设备产生必需的属性信息,并与待记录的音乐内容的视频-声音数据相结合地记录产生的属性信息。
第一实施例中的记录/重放设备被配置成使得音乐内容的信息也可从例如因特网上的音乐内容提供服务器下载。
假定在本例中来自音乐内容提供服务器的音乐内容信息伴随有属性信息。当收到来自第一实施例中的记录/重放设备的音乐内容获取请求时,音乐内容提供服务器使属性信息连同所请求的音乐内容的视频-声音数据一起被下载到记录/重放设备。
记录/重放设备通过使用音乐内容的识别信息,把下载的视频-声音数据和属性信息联系起来,并保存所述视频-声音数据和属性信息。
在本例的记录/重放设备中包括一个微计算机。如图1中所示,程序ROM(只读存储器)3和用于工作区的RAM(随机存取存储器)5通过系统总线2与CPU(中央处理器)1连接。
用户接口11、编码/解码单元12、曲调分析单元13、通信接口14、重放历史信息保持单元15和光盘驱动器16也与系统总线2连接。
用户接口11例如包括用于接收用户操作输入的按钮操作单元(未示出)和显示器,比如LCD(液晶显示器)。
音乐内容存储单元20与编码/解码单元12连接。在本例中,音乐内容存储单元20由大容量硬盘装置实现。使用大容量可写光盘的读/写装置单元也可被用于实现音乐-内容存储单元20。
为了把数据写入实现音乐内容存储单元20的硬盘装置中,编码/解码单元12执行把写入数据编码成具有可被记录到硬盘装置中的格式的数据的处理,还对从硬盘装置读取的数据执行与编码对应的解码处理。这种情况下,编码处理可涉及数据压缩处理,相应地,解码处理可涉及数据解压缩处理。
本例中,音乐内容的数据不仅包括乐曲数据,而且还包括与音乐内容相关的视频数据和与音乐内容相关的属性信息(它在下面详细说明)。
音乐内容存储单元20包括其中保存乐曲数据和多个音乐内容的视频数据的视频-声音数据存储单元21,和其中保存所述多个音乐内容的属性信息的属性信息存储单元22。对于每个音乐内容,保存在视频-声音数据存储单元21中的乐曲数据和视频数据与保存在属性信息存储单元22中的属性信息由识别音乐内容的对应音乐内容识别信息(内容ID)相互联系起来。
为了把音乐内容的乐曲数据保存到音乐内容存储单元20中的视频-声音数据存储单元21中,曲调分析单元13分析乐曲数据,检测乐曲的各段乐曲素材,并提取每个乐曲素材的乐曲构成信息。所述乐曲构成信息作为属性信息的一部分被记录在属性信息存储单元22中。只有当属性信息附属于待记录的音乐内容的信息时,曲调分析单元13才提取乐曲构成信息并把其记录成属性信息的一部分。
一个乐曲素材是节拍(beat)、小节(measure)和和弦能够依附于的单元。乐曲构成信息包括充当确定乐曲的每个乐曲素材的所谓“曲调”的基础的信息,例如速度、音调、和弦、音量、节奏、乐谱及和弦进行。
通信接口14用于通过外部网络,比如因特网5与音乐内容提供服务器设备6等连接。在本例中,音乐内容提供服务器设备6被配置成以致它不仅能够提供乐曲数据和视频数据,而且还能够提供属性信息。
重放历史信息保持单元15保持历史信息,该历史信息指示以前利用该记录/重放设备听乐曲的频率,何时听乐曲,以及听哪个乐曲。重放次数(频率)、重放时间、重放期间的周围环境信息(周围环境信息也将在下面说明)等与重放的音乐内容的识别信息(内容ID)关联地被保存在重放历史信息保持单元15中。
光盘驱动器16从诸如CD(光盘)、DVD(数字通用光盘)之类的光盘7读取乐曲数据和视频数据。当音乐内容的属性信息被记录在光盘7上时,光盘驱动器16还从光盘7读取属性信息。
在本例的记录/重放设备中,身体信息获取单元30、周围环境信息获取单元40和视频-声音输出单元50也与系统总线2连接。
身体信息获取单元30包括身体信息传感器31和身体信息分析单元32。身体信息传感器31检测确定正在查看/收听音乐内容的收听者是否表示出对该音乐内容的偏爱的信息。身体信息传感器31检测身体信息,比如身体移动、呼吸、血压、体表温度、皮肤排汗和皮肤电阻,并把身体信息提供给身体信息分析单元32。
例如,当收听者表示出对他或她正在收听的乐曲的偏爱,并且处于所谓的“沉浸于音乐中(riding music)”的状态时,身体移动和呼吸可能与正在播放的音乐的节奏和速度同步。例如,当希望播放缓慢的旋律时,身体移动和呼吸相应地变慢,另外,当音量突然增大时,身体也会移动极大,以便与之对应,并且呼吸会相应地发生变化,例如,突然从短暂的屏气变成呼吸。
另外,例如,对于他或她感到兴奋的音乐部分,收听者会表现出变化,例如脉搏和心跳的加速,以及皮肤排汗的增加。对于柔和的音乐部分,发生脉搏和心跳变慢和变稳定的变化。
身体信息分析单元32从身体信息传感器接收如上所述的收听者情感信息,并把指示收听者是否表现出对他或她正在收听的乐曲的偏爱的结果发送给系统总线2。这种情况下,通过还参考正在重放的乐曲的乐曲构成信息,身体信息分析单元32确定收听者的身体运动是否与乐曲同步。
在本实施例中,身体信息分析单元32被配置成根据身体信息,比如身体运动具有关于偏爱程度的多级阈值。例如,身体信息分析单元32被配置成输出关于多个级别的确定,例如“收听者未表示出偏爱(即,未沉浸在音乐中)”,“收听者表现出偏爱,但是其程度较低”和“收听者显著表现出偏爱(即,沉浸在音乐中)”。
周围环境信息获取单元40包括GPS接收器41、位置信息输入接口42、环境信息传感器43和环境信息产生单元44。
根据从多个卫星接收的无线电波,GPS接收器41执行确定GPS接收器41的位置的测量和计算,并把计算结果发送给位置信息输入接口42。在本例中,位置信息输入接口42把从GPS接收器41接收的测量-计算结果转换成诸如地名之类的位置信息,并把转换后的信息发送给系统总线2。位置信息指示执行对应记录的地方。从而,当记录音乐内容时,位置信息被记录成周围环境信息的一部分,周围环境信息是属性信息的一部分。
环境信息传感器43包括用于检测季节和日期-时间的时钟单元,以及温度传感器和湿度传感器。环境信息产生单元44从环境信息传感器43接收信息,并把诸如温度、湿度、季节和日期-时间之类的信息发送给系统总线2。当记录音乐内容时,上述信息也被记录成周围环境信息的一部分,周围环境信息是属性信息的一部分。
视频-声音输出单元50包括声音-数据解码单元51、声音编排单元52、声音输出单元53、视频数据解码单元54、视频编排单元55、视频输出单元56和I/O端口57。
当音频数据是PCM音频信号(它是未压缩的音频信号)时,声音-数据解码单元51把音频数据经声音编排单元52直接输出给声音输出单元53。当音乐数据由ATRAC(自适应变换声编码)或AAC(高级音频编码)压缩时,声音-数据解码单元51提取(解压缩)所述压缩。当数据是MIDI(电子乐器数字接口)数据时,声音-数据解码单元51对MIDI数据解码并根据MIDI数据产生数字音频信号。
响应通过I/O端口57供给其的控制信号,声音编排单元52执行特效(效果)处理并混合另一乐曲的数据(即,重混)。
在本实施例中,由声音编排单元52执行的效果处理的例子包括对声音数据应用失真(distortion)和回响(reverb)。
重混是典型的电台节目主持人使用的一种技术。在重混中,多个音乐素材被混合成被重放的乐曲,使得对于每个小节或节拍来说不会失去音乐完整性。重混按照音乐理论,使用乐曲构成信息,比如准备的小节暂停(measure break)(每个乐曲素材的片断)、速度信息及和弦信息,平滑地把多个音乐素材混合成重放的乐曲。
对于重混来说,根据来自CPU 1的指令,待重混的声音数据,从除被重放的乐曲以外的乐曲提取的声音数据被提供给声音-数据解码单元51。从而,在本实施例中,声音-数据解码单元51具有允许并行执行被重放的声音数据的解码处理和待重混的声音数据的解码处理的功能。
声音编排单元52的输出被提供给声音输出单元53。声音输出单元53把输入的数字音频信号转换成模拟音频信号,并把模拟音频信号经输出放大器(未示出)提供给扬声器,或者经输出端子提供给耳机(未示出),以致实现声音重放。
在本实施例中,视频-数据解码单元54解码(提取(解压缩))伴随音乐内容的压缩视频数据。这种情况下,伴随的压缩视频数据例如是按照JPEG(联合图像专家组)格式等压缩的静止图像数据,或者是按照MPEG(运动图像专家组)2、MPEG 4格式等压缩的运动图像数据。视频数据解码单元54具有对所述压缩解压缩和解码的功能。
由视频数据解码单元54解码的视频数据被提供给视频编排单元55。视频编排单元55对视频数据应用例如特效(effect)。所述特效使用常规的技术,本实施例中将省略常规特效技术的细节。
从视频编排单元55输出的视频数据被提供给视频输出单元56。视频输出单元56以数字视频信号的形式输出数字视频数据,或者根据需要输出转换后的模拟视频信号,以致视频信号经视频输出端子被显示在显示器的屏幕上。
[属性信息的描述]
在本实施例中,作为每个音乐内容的属性信息,按如下记录所述的各种信息使得对应于乐曲。
(1)乐曲构成信息
乐曲构成信息例如包含上面提及的每个乐曲素材的片断信息,以及乐曲的速度、音调(key)、和弦、音量、和乐曲的节奏,乐谱信息,和弦进行信息和反复重混循环的音乐波形的上升的信息。例如,BPM(每分钟的拍数)值被用作速度信息。
乐曲构成信息指示乐曲的曲调。音乐内容记录/重放设备分析乐曲构成信息,并且能够确定在乐曲构成信息方面类似的乐曲的曲调方面也类似。从而,当收听者对正在重放的乐曲表现出偏爱时,那么根据乐曲构成信息的分析结果,曲调与正在重放的乐曲类似的乐曲可被选为下一个候选重放乐曲。
当收听者对正在重放的乐曲没有表现出偏爱时,根据以前的重放历史检测收听者似乎更喜欢的乐曲,并检查所检测的乐曲的乐曲构成信息。此外,其乐曲构成信息与检测到的乐曲的乐曲构成信息类似的乐曲被指定为下一个候选的重放乐曲。借助这种方案,根据重放历史,曲调与收听者似乎更喜欢的乐曲相似的乐曲可被指定为下一个候选的重放乐曲。
包含在乐曲构成信息中的每个乐曲素材的片断信息,每个乐曲的速度信息等,和弦进行信息等等的使用使得能够实现平滑的重混。
这种情况下,保证音乐内容的视频-声音数据与属性信息彼此对应。例如,该方案是这样的,小节片断的时间码信息(时间码信息作为乐曲构成信息在属性信息中描述,并且小节是一个乐曲素材单元)与实际的视频-声音数据的小节片断的时间码完全匹配。
从而,乐曲构成信息使得能够检测正被重放的乐曲的每个乐曲素材的片断的计时,例如,小节或节拍的片断的计时。此外,乐曲构成信息允许与正被重放的乐曲的每个乐曲素材的片断同步地添加待重混的另一乐曲的每个乐曲素材的信息,由此能进行平滑的重混。
(2)效果信息
效果信息是应用于乐曲的特效的信息,包含上面提及的失真和回响的参数。这种情况下,当效果参数随着时间而变化时,效果信息变成响应时间的变化而变化的参数信息。
在本例的音乐内容记录/重放设备中按照固定方式准备的多种效果信息可被用作效果信息。但是,当推荐的有效效果信息可用于每个乐曲时,效果信息被包含为属性信息的一部分。推荐的效果信息由例如音乐内容的制作者供给。不仅一种效果信息,而且多种效果信息可被包含为属性信息。
效果信息也可被包含在属性信息中,以便对应于与每个乐曲素材对应的时段。
(3)乐器信息
乐器信息是乐曲中使用的乐器的信息。例子包括鼓和吉它。例如,一个小节的鼓-打击乐器演奏形式可被记录成属性信息,以便循环地重复。音乐乐器的演奏形式信息也可被用于重混。
记录/重放设备能够为重混准备鼓-打击乐器的多种演奏形式,胜于把一个小节的鼓-打击乐器演奏形式记录成属性信息。
(4)表演者信息
表演者信息是关于表演者的信息。例子包括乐曲的表演者(包括演唱者)的姓名(包括组名),性别,年龄和组成员。
(5)感觉信息
感觉信息指示收听乐曲的收听者的感官识别,是通过量化例如悲观音乐/乐观音乐,柔和音乐/重音乐,以及欢快的音乐/悲伤的音乐而获得的数据。例如,可利用如图2中所示的方法获得感觉信息。即,沿着预定的感觉轴预先定义悲观/乐观,柔和/沉重,以及欢快/悲伤,收听者关于每个感觉同设置数字表述的主观感官识别的程度。
例如,如图2中所示,对于悲观/乐观感觉轴,主观感官识别的程度由16级的数字值表述。在图2中所示的例子中,对于悲观乐曲来说,数字值较大,对最强的乐观乐曲分配数字值“0”。对其它感觉轴,比如柔和/沉重和欢快/悲伤轴同样如此。还可设置其它感觉轴。
如图2中所示,当在感觉轴上设置值时,用线条连接一些值会产生形状与曲调对应的图形(即,在图2中,响应曲调改变三角形形状)。换句话说,感觉轴的使用能够简化具有类似曲调的乐曲的搜索。
这种情况下,对于与音乐内容的数据相结合地记录在存储介质中的属性信息以及从音乐内容提供服务器供给的属性信息,能够例如使几十位收听者收听该乐曲,并且能够关于每个感觉轴报告主观感官识别的程度的数字值,并例如关于每个感觉轴使用其平均值。
如下所述,通过作为收听者收听乐曲,记录/重放设备的用户可设置和输入感觉信息。当收听者感到包含在记录于存储介质中的属性信息中的感觉信息数字值,或者包含在从音乐内容提供服务器获得的属性信息中的感觉信息报告不同于当收听者实际收听该乐曲时获得的结果时,那么收听者可重写感觉信息值,作为保存在记录/重放设备的音乐内容存储单元中的属性信息中的感觉信息。
(6)周围环境信息
周围环境信息包含指示推荐收听该乐曲的位置的地方信息。地方信息的一个例子是山地或海洋。地方信息由DVD的制作者或者从音乐内容提供服务器发送的音乐内容的提供者输入和设置。周围环境信息也可以是当记录/重放设备记录乐曲时,由周围环境信息获取单元40获得和记录(音频记录)的信息。周围环境信息的例子包括位置、日期-时间、季节、温度和湿度。周围环境信息还包括在记录期间由收听者输入和设置的地方信息。地方信息的例子包括推荐收听该乐曲的位置。
(7)重放历史信息
重放历史信息指示收听者收听哪个乐曲,收听乐曲的频率以及何时收听。在本实施例中,如上所述,重放历史信息由重放历史信息保持单元15保存和保持。在音乐内容的数据被保存在音乐内容存储单元20的记录处理期间,重放历史信息被包含在属性信息中,并且重放历史信息作为属性信息的一部分被保存在音乐内容存储单元20中的属性信息存储单元22中。
重放历史信息未被包含在制作人产生的DVD中或者从服务器获得的属性信息中。
[第一实施例的记录/重放设备的记录处理]
下面说明第一实施例的记录/重放设备的记录处理。一些方案可用于第一实施例中的记录处理。
方案之一是通过读取记录在DVD上的音乐内容数据,并把所述数据写入音乐内容存储单元20中来进行记录的。另一方案是记录从音乐-内容提供服务器设备6下载的音乐内容数据。此外,未举例说明的另一方案是把通过外部输入端子从其它重放设备传送的音乐内容数据保存在音乐内容存储单元20中。
在这些方案中,当音乐内容数据包含属性信息时,除了音乐内容的视频-声音数据之外,本实施例的记录/重放设备还读取属性信息,并把读取的信息和数据写入音乐内容存储单元20中。本实施例的记录/重放设备被这样配置,使得当在记录期间,用户难以对属性信息进行添加或修改时,该设备能够对属性信息进行添加或修改。
当音乐内容数据只包含视频-声音数据,并不包含属性信息时,本实施例的记录/重放设备产生(设置)属性信息,并把其保存在音乐内容存储单元20中的属性信息存储单元22中。
即,曲调分析单元13分析DVD或下载的声音数据,从而获得乐曲构成信息,所述乐曲构成信息随后被保存为属性信息的一部分。用户输入如上所述的分成16级的数字值之一,作为指示他或她自己实际收听乐曲的主观感官程度值的感觉信息。所述感觉信息随后被记录成属性信息的一部分。另外,周围环境信息获取单元40获得的周围环境信息也被记录成属性信息的一部分。此外,根据需要,重放历史信息被记录成属性信息。
在本实施例中,其中对应于音乐内容的识别信息保存属性信息的属性信息提供服务器设备可被设置在因特网5上。这种情况下,包括音乐内容的识别信息的下载指令被传送给服务器设备,以致能够收到与音乐内容的识别信息对应的属性信息。
图3和4是当记录/重放设备从音乐内容提供服务器设备6获得音乐内容和属性信息时,记录/重放设备和音乐内容提供服务器设备6的操作的流程图。
虽然下面给出其中记录/重放设备从音乐内容提供服务器设备6接收音乐内容数据和伴随音乐内容数据的属性信息的情况的一个例子,不过在其中多个不同的记录/重放设备在它们之间传输和接收属性信息的情况下基本上执行类似的处理。
图3是图解说明发出音乐内容数据和伴随音乐内容数据的属性信息的供给请求的记录/重放设备的处理的流程图。图4是图解说明提供音乐内容数据和伴随音乐内容数据的属性信息的音乐内容提供服务器设备6的处理的流程图。
当在记录/重放设备上执行运行发出音乐内容数据和伴随音乐内容数据的属性信息的供给请求的程序的预定操作时,记录/重放设备的CPU 1执行图3中所示的处理,首先接收待下载的音乐内容的选择输入(步骤S11)。
根据接收的选择输入,记录/重放设备产生音乐内容供给请求,音乐内容供给请求包含请求下载的音乐内容的标识符,并通过通信接口14和因特网5把产生的请求传送给音乐内容提供服务器设备6(步骤S12)。
另一方面,音乐内容提供服务器设备6的控制单元(CPU)总是执行图4中所示的处理,并等待接收来自记录/重放设备的音乐内容供给请求(步骤S21)。控制单元确定音乐内容提供服务器设备6是否收到了供给请求(步骤S22)。当控制单元在步骤S22中确定它没有收到音乐内容供给请求时,控制单元重复从步骤S21开始的处理,并等待接收音乐内容供给请求。
当音乐内容提供服务器设备6的控制单元在步骤S22中的确定处理中确定它从记录/重放设备收到了音乐内容供给请求时,音乐内容提供服务器设备6的控制单元根据包含在接收的供给请求中的音乐内容标识符,从保存在音乐内容提供服务器设备6中的音乐内容中搜索所需的音乐内容数据和对应的属性信息(步骤S23)。
音乐内容提供服务器设备6的控制单元随后确定所需的音乐内容数据是否存在(步骤S24)。当控制单元确定所述数据存在时,所述数据经通信接口和因特网5被传送给请求端的记录/重放设备(步骤S25)。之后,处理返回步骤S21,并重复从步骤S21开始的处理。
当音乐内容提供服务器设备6的控制单元在步骤S24中的确定处理中确定所需的音乐内容数据不存在时,控制单元产生指示所需音乐内容数据不存在的响应消息,并经通信接口和因特网5把响应消息发送给请求端的记录/重放设备(步骤S26)。之后,处理返回步骤S21,并重复从步骤S21开始的处理。
另一方面,请求端的记录/重放设备经通信接口14接收来自音乐内容提供服务器设备6的响应(答复)(步骤S13)。根据接收的响应,记录/重放设备确定请求的音乐内容数据是否已被传送给它(步骤S14)。当记录/重放设备在步骤S14中的确定处理中确定收到了请求的音乐内容数据时,它把接收的音乐内容数据和连同音乐内容数据一起获得的属性信息记录(保存)在音乐内容存储单元中(步骤S15),并且结束图3中所示的处理。
当记录/重放设备的控制单元在步骤S14中的确定处理中确定它还没有收到请求的音乐内容数据(它已经收到了指示对应的音乐内容数据不存在的消息)时,控制单元通过使用包括于其中的装置向记录/重放设备的用户发出指示所需的音乐内容数据不存在的消息(步骤S16)。所述装置(图1中未示出)的例子包括诸如LCD(液晶显示器)之类的显示装置、诸如LED(发光二极管)之类的发光装置、或者蜂鸣器或警报。通过上面所述的处理,结束图3中所示的处理。
在本实施例中,如上所述,当收到所需的音乐内容数据时,记录/重放设备还能够接收与音乐内容数据一起供给的属性信息。接收的音乐内容数据和音乐内容数据的属性信息可被保存在音乐内容存储单元20中,以便可供重放之用。
当音乐内容数据未伴随有属性信息时,如上所述,属性信息例如由曲调分析单元13进行的分析所获得的乐曲构成信息和周围环境信息获取单元获得的周围环境信息构成,并且与音乐内容的视频-声音数据相结合地保存在音乐内容存储单元20中。
当音乐内容的乐曲数据存在于记录/重放设备的音乐内容存储单元中,但是音乐内容的属性信息不存在于其中时,记录/重放设备还可通过使用音乐内容的识别信息和为搜索关键字,访问音乐内容提供服务器设备6,只下载属性信息。
图5是图解说明作为本实施例的记录/重放设备的音乐内容存储单元20的一个例子的硬盘装置的示意结构的示图。具体地说,充当音乐内容存储单元20的硬盘装置20HD包括用于视频-声音数据Dt,比如音乐内容的视频数据和声音数据的区域23,和用于音乐内容数据的属性信息At的区域24。区域23被包括在视频-声音数据存储单元21中,区域24被包括在属性信息存储单元22中。
在本实施例中,虽然用硬盘装置实现音乐内容存储单元20,不过光盘介质,比如作为可拆卸(可分离)的存储介质的DVD也可被用作音乐内容存储单元20。图6是图解说明这种情况下的音乐内容存储单元20的另一例子,即,光盘介质(例如可读/可写磁光盘)20RD的一个例子的示图。
如图6中所示,内容数据(视频-声音数据)Dt,比如音频内容数据和视频内容数据被保存在光盘20RD的数据存储区中。如图6中所示,除了通常在光盘上设置的导入区,TOC(内容表)区和导出区之外,光盘20RD还具有用于保存内容属性信息At的区域。属性信息被保存在用于内容属性信息At的区域中。当内容数据Dt包含多个乐曲的数据时,每个乐曲的属性信息被记录。这种情况下,如上所述,由对应的音乐内容识别信息(音乐内容ID)把内容数据Dt和属性信息At相互联系起来。
光盘20RD可以是可从音乐内容的制作者等购得的光盘,音乐内容数据被记录在所述光盘上。另一方面,利用个人计算机等,一般用户可通过记录从因特网下载的音乐内容来创建光盘20RD。
如图5和6中所示,利用记录/重放设备,用户能够任意重写记录在存储介质的属性信息At的内容,向属性信息中添加信息,从属性信息中删除信息,或者用新的属性信息代替属性信息。例如,为了把每个乐曲素材的片断信息添加到属性信息中,记录/重放设备可自动分析所需的音乐内容数据。这允许新的乐曲素材的片断信息的自动生成,或者允许用户通过用户接口11输入的片断信息的添加。
当通过用户接口收到从用户输入的改变指令时,记录/重放设备也能够改变记录在音乐内容存储单元20中的属性信息。类似地,当通过用户接口11收到从用户输入的改变指令时,记录/重放设备能够删除记录在音乐内容存储单元20中的属性信息,能够创建新的属性信息,或者能够用输入的属性信息代替已记录的属性信息。
记录/重放设备还能够通过因特网5和通信接口14接收新的属性信息;能够从外部设备,比如通过数字接口,例如USB(通用串行总线)接口连接的另一记录/重放设备接收属性信息;或者能够通过无线接口和发射/接收天线经由无线LAN接收属性信息。此外,记录/重放设备能够把接收的属性信息用于添加和替换。
自然地,在上面描述的任何情况下,借助对应音乐内容的标识符,音乐内容数据和属性信息总是彼此对应,以致使得哪个音乐内容数据伴随有哪个属性信息是清楚的。
如上所述,音乐内容伴有属性信息。从而,通过响应音乐内容数据的分发,分发属性信息,能够在音乐内容数据的使用期间有效地使用属性信息,并且能够在新的应用中利用音乐内容数据。
当将由光盘驱动器16读取的光盘7包含音乐内容数据的属性信息时,光盘7具有和图6中所示的光盘20RD相同的结构。
下面参考附图说明图1中所示的实施例的记录/重放设备的记录处理操作的一个例子。图7是表示在功能上提取自本实施例的记录/重放设备的记录处理部分的方框图。图8-9是图解说明记录处理操作的一个例子的流程图。
如图7中所示,记录/重放设备的记录功能由两个组件构成。其中一个是记录和保持多个音乐内容的音乐内容存储单元20,另一个是记录音乐内容的记录单元100。由于音乐内容存储单元20和上面说明的音乐内容存储单元相同,因此下面省略对其的说明。记录单元100是执行记录音乐内容数据和属性信息的处理的部分。记录单元100的结构将在下面说明。
在本例中,记录单元100把输入的音乐内容数据(视频-声音数据)和属性信息相互联系起来,并把关联的数据和信息保存在音乐内容存储单元20中。这种情况下,当输入与音乐内容对应的属性信息时,属性信息被直接保存在音乐内容存储单元20中的属性信息存储单元22中,或者在改变属性信息的一部分或向属性信息中添加信息之后被保存在所述属性信息存储单元22中。
但是,当音乐内容未伴有属性信息时,记录单元100具有产生属性信息,把属性信息加入音乐数据内容中,并将其保存在音乐内容存储单元20中的属性信息存储单元22中的功能。
这种情况下,在把属性信息添加到音乐内容数据中的方法中,归根结底,用户能够根据他或她的主观判断添加属性信息。另外,根据未处理的视频-声音数据,记录/重放设备能够自动计算属性信息的一部分,并且能够添加所述一部分属性信息。即,包括在属性信息中的乐曲构成信息的速度信息,记录/重放设备的位置,周围环境信息等等可被自动确定并且自动添加。但是,在本例中,记录/重放设备适合于只获得乐曲构成信息和周围环境信息,从而,用户最终确定待添加到音乐内容中的属性信息是否是最适当的。
如图7中所示,记录单元100包括上面说明的用户接口11、曲调分析单元13、重放历史信息保持单元15和周围环境信息获取单元40。另外,作为功能处理单元,记录单元100包括音乐内容记录指令控制单元101、音乐内容数据保持单元102、视频-声音数据记录设置单元103、属性信息记录设置单元104、编码单元105和乐曲构成信息获取单元106。
音乐内容记录指令控制单元101是根据通过用户接口11输入的用户指令,控制音乐内容记录指令的部分,并且对应于CPU 1根据保存在ROM 3中的记录程序,通过使用RAM 4作为其工作区执行的部分。
音乐内容数据保持单元102是保持附随待伴随的属性信息的待记录音乐内容的视频-声音数据,以及属性信息的部分。
当待记录的音乐内容的来源是光盘驱动器16读取的光盘7时,音乐内容数据保持单元102对应于光盘7和光盘驱动器16。
当通过因特网5从音乐内容提供服务器设备6供给待记录的音乐内容时,音乐内容数据保持单元102例如对应于用于临时保存经通信接口14接收的音乐内容的数据的缓冲存储器。
编码单元105对应于只具有从编码/解码单元12提取的编码部分的功能的部分。
视频-声音数据记录设置单元103保持将被供应给编码单元105的视频-声音数据,并利用RAM 4的一个区域。
属性信息记录设置单元104保持将被供应给编码器电路的属性信息数据,并且也利用RAM 4的一个区域
当音乐内容数据未附随属性信息时,乐曲构成信息获取单元106充当获得与待记录的音乐内容对应的属性信息的功能单元。如上所述,乐曲构成信息获取单元106例如由通过因特网访问属性信息提供服务器设备,通过使用音乐内容ID作为搜索关键字,从而获得与音乐内容ID对应的属性信息的功能单元,或者从另一记录/重放设备获得与音乐内容对应的属性信息的功能单元构成。
下面参考图8和9的流程图说明记录处理操作。根据ROM 3中的程序,CPU 1通过使用RAM作为其工作区,执行图8和9中所示的处理步骤。
在记录之前,用户准备他或她希望记录的乐曲的数据作为音乐内容,并把所述数据保存在音乐内容数据保持单元102中。当乐曲数据附随有属性信息时,乐曲(它是音乐内容)的属性信息也被保存在音乐内容数据保持单元102中。音乐内容数据保持单元102向音乐内容记录指令控制单元101发出关于属性信息是否伴随用户希望记录的乐曲的报告。从而,音乐内容记录指令控制单元101预先识别属性信息是否附随待记录的音乐内容。
随后,当用户通过用户接口11的操作单元发出记录指令时,音乐内容记录指令控制单元101识别关于所指定乐曲的记录指令(图8中的步骤S31)。当识别出所述记录指令时,音乐内容记录指令控制单元101确定指定乐曲是否附随有属性信息(步骤S32)。当确定乐曲附随有属性信息时,音乐内容记录指令控制单元101向属性信息记录设置单元104发送记录指令,以便记录伴随音乐内容的属性信息(步骤S33)。
音乐内容记录指令控制单元101向音乐内容数据保持单元102发出指令,以便把保持的待记录的音乐内容的视频-声音数据发送给视频-声音数据记录设置单元103,另外,音乐内容记录指令控制单元101向音乐内容数据保持单元102发出指令,以便把对应的属性信息发送给属性信息记录设置单元104(步骤S34)。当收到指令时,音乐内容数据保持单元102把待记录的音乐内容的视频-声音数据连同音乐内容ID一起发送给视频-声音数据记录设置单元103。音乐内容数据保持单元102还把对应的属性信息连同音乐内容ID一起发送给属性信息记录设置单元104。
当从音乐内容数据保持单元102收到属性信息(包括音乐内容ID)时,属性信息记录设置单元104创建待记录的属性信息的暂定列表(步骤S35)。属性信息记录设置单元104随后通过例如在用户接口11的显示器上显示所述暂定列表,向用户呈现创建的属性信息的暂定列表(步骤S36)。
当被供给属性信息的暂定列表的用户确定需要对属性信息进行修改或添加时,他或她通过用户接口11的操作单元执行预定的操作。另一方面,当用户确定不需要改变属性信息时,他或她通过操作用户接口11上的决定键输入指示不需要改变属性信息的信息。
音乐内容记录指令控制单元101确定是否从用户收到了关于属性信息的修改指令或添加指令(步骤S37)。当确定收到了修改指令或添加指令时,音乐内容记录指令控制单元101向属性信息记录设置单元104发出指示收到修改指令或添加指令的通知。当收到修改指令或添加指令时,属性信息记录设置单元104按照通过用户接口11接收的修改指令的内容或者添加指令的内容对属性信息进行修改或添加(步骤S38)。
当在对属性信息进行修改或添加之后,或者未对属性信息进行任何修改或添加之后,用户操作决定键从而意味着属性信息OK时,音乐内容记录指令控制单元101检测用户的关于属性信息的决定输入(步骤S39)。音乐内容记录指令控制单元101还向编码单元105发出指令,以便从视频-声音数据记录设置单元103接收视频-声音数据,以及从属性信息记录设置单元104接收属性信息,并对接收的信息编码。当收到所述指令时,编码单元105接收视频-声音数据和属性信息,并执行编码处理,从而把接收的数据和信息保存在音乐内容存储单元20中(步骤S40)。
编码单元105随后把编码的视频-声音数据写入视频-声音数据存储单元21,另外把编码的属性信息写入属性信息存储单元22(步骤S41)。在上述处理之后,记录处理结束。
另一方面,当在步骤S32中确定音乐内容未附随有属性信息时,音乐内容记录指令控制单元101向属性信息记录设置单元104发送指令,以致设备自己产生和记录音乐内容的属性信息(图9中的步骤S51)。
音乐内容记录指令控制单元101还向音乐内容数据保持单元102发出指令,以便把保持的待记录音乐内容的视频-声音数据发送给视频-声音数据记录设置单元103和曲调分析单元13(步骤S52)。当收到该指令时,音乐内容数据保持单元102把待记录的音乐内容的视频-声音数据连同音乐内容ID一起发送给视频-声音数据记录设置单元103。音乐内容数据保持单元102还把音乐内容的声音数据发送给曲调分析单元13。
当从音乐内容数据保持单元102收到声音数据时,曲调分析单元13分析声音数据,并提取每个乐曲素材的乐曲构成信息,比如速度、音调和和弦(步骤S53)。
当从音乐内容记录指令控制单元101收到指示设备本身将产生属性信息的指令时,属性信息记录设置单元104确定指定乐曲的重放历史是否被重放历史信息保持单元15保持。当重放历史被保持时,属性信息记录设置单元104获得所述重放历史,将其用作属性信息的一部分(步骤S54)。当重放历史信息未被保持时,属性信息中的重放历史信息被设置成“空”,以指示不存在任何重放历史信息。
属性信息记录设置单元104接收关于待记录的乐曲的指示悲观/乐观、沉重/柔和、欢快/悲伤等的感觉信息的输入数字值(例如,上面提及的16级数字值),并把所述数字值用作属性信息的一部分(步骤S55)。感觉信息由收听乐曲的用户通过用户接口11输入。
属性信息记录设置单元104还从曲调分析单元13获得由曲调分析单元13分析和提取的乐曲构成信息,并把获得的乐曲构成信息用作属性信息的一部分(步骤S56)。另外,属性信息记录设置单元104从周围环境信息获取单元40获得周围环境信息,并把周围环境信息用作属性信息的一部分(步骤S57)。
随后,根据在步骤S54-S57中获得的信息,属性信息记录设置单元104创建待记录的属性信息的暂定列表(步骤S58)。属性信息记录设置单元104随后通过例如在用户接口11的显示器上显示所述暂定列表,向用户呈现属性信息的创建的暂定列表(步骤S36)。
当被提供待记录属性信息的暂定列表的用户确定需要对属性信息进行修改或添加时,他或她通过用户接口11执行预定的操作。另一方面,当用户确定不需要改变属性信息时,当用户确定不需要改变属性信息时,他或她通过操作用户接口11上的决定键输入指示不需要改变属性信息的信息。
音乐内容记录指令控制单元101确定是否从用户收到了关于属性信息的修改指令或添加指令(步骤S37)。当确定收到了修改指令或添加指令时,音乐内容记录指令控制单元101向属性信息记录设置单元104发出指示收到修改指令或添加指令的通知。当收到修改指令或添加指令时,属性信息记录设置单元104按照通过用户接口11接收的修改指令的内容或者添加指令的内容对属性信息进行修改或添加(步骤S38)。
当在对属性信息进行修改或添加之后,或者未对属性信息进行任何修改或添加之后,用户操作决定键从而意味着属性信息OK时,音乐内容记录指令控制单元101检测用户的关于属性信息的决定输入(步骤S39)。音乐内容记录指令控制单元101还向编码单元105发出指令,以便从视频-声音数据记录设置单元103接收视频-声音数据,以及从属性信息记录设置单元104接收属性信息,并对接收的信息编码。当收到所述指令时,编码单元105接收视频-声音数据和属性信息,并执行编码处理,从而把接收的数据和信息保存在音乐内容存储单元20中(步骤S40)。
编码单元105随后把编码的视频-声音数据写入视频-声音数据存储单元21,另外把编码的属性信息写入属性信息存储单元22(步骤S41)。在上述处理之后,记录处理结束。
在上面所述的实施例中,当音乐内容未伴随有属性信息的乐曲构成信息时,曲调分析单元13提取乐曲构成信息。但是,当从乐谱信息或制作人信息知道乐曲的曲调时,不需要进行曲调分析。从而,在这种情况下,用户可根据乐谱信息输入诸如速度、音调和和弦之类的乐曲构成信息作为属性信息。
当可通过网络,比如因特网5获得乐曲构成信息时,属性信息记录设置单元104还能够通过乐曲构成信息获取单元106获得乐曲构成信息,并且可把获得的乐曲构成信息用作属性信息的一部分。
当本实施例的记录/重放设备重复乐曲重放时,以前的用户重放历史信息被累积在重放历史信息保持单元15中。通常,经常被收听的乐曲意味着收听者对它的偏爱度较高,相反,短时间重放的乐曲意味着收听者对它的偏爱度较低。因此,每个乐曲的重放频率和重放时间信息每次被更新时,重放历史信息被写入该乐曲的音乐内容属性区中。
当记录音乐内容时,作为属性信息保存在音乐内容存储单元20中的属性信息存储单元22中的重放历史信息被更新。另外,当对应的乐曲被重放,并且重放历史信息保持单元15中的重放历史被更新时,对应乐曲的属性信息的重放历史信息也被更新,所述属性信息被保存在属性信息存储单元22中。
由于经常收听的乐曲一般意味着收听者对它的偏爱较高,短时间重放的乐曲一般意味着收听者对它的偏爱较低,参考重放历史信息使得能够检测收听者更喜欢的乐曲,并且还使得能够确定偏爱程度较高的乐曲的曲调是具有较高用户偏爱度的曲调。因此,乐曲的重放频率信息和重放时间信息每次被更新时,可关于该乐曲更新属性信息中的重放历史信息。借助这种方案,参考属性信息的重放历史信息和乐曲构成信息使得能够确定收听者更喜欢的乐曲及其曲调,并且能够在重放期间使用该乐曲和曲调来改编乐曲。
[第一实施例的记录/重放设备的重放处理]
下面说明第一实施例的记录/重放设备的重放处理。在本实施例中,重放处理中存在两个主要的要点。
一个要点是记录/重放设备具有仅仅依据开始重放的操作,顺序选择用户会喜欢的乐曲,并把这些乐曲呈现给用户的功能。这种情况下,用户通过用户接口11的操作单元选择第一个乐曲,并输入顺序重放开始操作。作为响应,本实施例的记录/重放设备根据从用户(收听者)获得的身体信息,确定用户是否表现出对最初选择的乐曲的偏爱。当确定用户表示出偏爱时,曲调与最初选择的乐曲类似的乐曲被指定为下一个候选的重放乐曲。
这种情况下,记录/重放设备包括用户(收听者)(他是乐曲收听者)的身体信息,并根据当他或她沉浸于音乐中时身体,比如头和腿的运动,脉搏等确定在每个指定时间的偏爱度。
当确定用户没有表现出对收听者正在收听的乐曲的偏爱时,记录/重放设备例如根据重放历史信息保持单元15保持的重放历史信息,选择收听者会喜欢的乐曲。记录/重放设备随后把曲调与选择的乐曲类似的乐曲指定为下一个修改的重放乐曲。可选择地,记录/重放设备可获得收听者的周围环境信息,通过参考属性信息搜索与获得的周围环境信息匹配的乐曲,并把找到的乐曲和曲调与该乐曲类似的乐曲指定为接下来的候选重放乐曲。
之后,当收听者收听第二个或随后的乐曲时,记录/重放设备根据从收听者获得的身体信息,不断确定用户是否表现出对正在收听的乐曲的偏爱,并执行与上述处理类似的处理,从而更新下一个候选重放乐曲。借助这种方案,本实施例提供能够在更新候选乐曲的时候,实时地呈现下一个候选的重放乐曲的优点。
在常规的乐曲重放设备中,当几百个乐曲以上的乐曲数据被保存在内部存储单元中时,可按照记录顺序,或者通过利用随机数按照随机顺序逐个唱片集地重放它们。但是,不存在能够根据用户(收听者)的偏爱确定重放顺序的乐曲重放设备。
还存在其中用户方创建所谓的播放列表(候选的重放乐曲的列表),并按照列表中的顺序进行重放的方法的一个例子。但是,该方法要求用户方每次创建一个播放列表,从而该方法费时。另外,还存在当保存在内部存储单元中的乐曲的数目增大时,必须修改播放列表的问题。该方法还存在没有考虑用户偏爱的问题。
相反,在本实施例中,重放设备方根据以前的用户重放历史信息,从用户实时输入的身体信息等,关于重放设备的位置的地理信息等等,通过参考当前正在重放的乐曲的属性信息,预测偏爱度。重放设备随后供给处于当前状况下的用户可能最希望收听的乐曲。
即,在这种重放音乐内容的方法中,乐曲的属性信息,收听者的身体信息,重放历史信息和周围环境信息被用于动态选择看来在每个指定时间最适合于用户的偏爱的候选乐曲,并重放和呈现该候选乐曲。
例如,从保存在属性信息存储单元22中的许多乐曲的属性信息中搜索其和弦进行和速度与过去经常收听的乐曲接近的乐曲,并重放找到的乐曲。当获得指示收听者看来因他或她正在收听的乐曲而放松的身体信息时,从属性信息中搜索具有与之接近的组成的乐曲,并重放找到的乐曲。即,在本实施例中,乐曲属性信息被用于动态提供与收听者的偏爱匹配的乐曲。
如上所述,在本实施例中,记录成属性信息的信息的例子包括表示收听者感觉如何的乐曲感觉信息(例如,乐观音乐/悲观音乐);指示用户重放该乐曲多少次等的重放历史信息;关于表演者和乐器的信息;和包括指示乐曲被记录在何处,以及适合于收听该乐曲的位置的地理信息等的周围环境信息。重放方根据需要利用上面所述的信息,以致能够从多个音乐内容中提取最适合于用户的偏爱的乐曲。
本实施例的记录/重放设备中的重放处理的第二个要点是改编乐曲的功能。即,通过具体地根据属性信息的乐曲构成信息,改变速度和音调(音程),进行重混和对每个乐曲素材应用效果,对当前正在收听的乐曲进行改编。
即,根据每个指定时候收听者的心情,通过经由重混同时重放多个乐曲或者通过改变乐曲的曲调,比如速度和音调,正在收听的乐曲被动态改编,正如电台节目主持人那样。在本实施例中,为了实现动态改编,乐曲数据伴随有如上所述的属性信息,尤其是乐曲构成信息,并且乐曲被重放/合成,以致在动态改编乐曲时,它与收听者所处的气氛相符。所述改编是对待重放的乐曲作出改变,以致收听者能够更好地欣赏该乐曲,以及向收听者提出一种欣赏该乐曲的新方式。
如上所述的属性信息目的是在不丧失音乐完整性的情况下,使乐曲能够被改编和重放。通常,音乐(乐曲)由小节、节拍等分段,并且另外为每一段定义一个或多个和弦。从而,按照音乐理论,例如即使当关于每个小节组合另一音乐素材时,也能够在不丧失音乐完整性的情况下改变曲调。这是一种由电台节目主持人等执行的通常称为重混的技术。
鉴于上面所述,在本实施例中,改编乐曲所需的乐曲构成信息被预先附加到音乐内容的视频-声音数据上,并且被记录成属性信息,如上所述。改编乐曲所需的乐曲构成信息指的是每个乐曲素材,比如速度、音调、和弦、音量或节奏,如上所述。
属性信息并非总是必须伴随音乐内容的视频-声音数据。例如,保存在另一存储位置中的属性信息可根据音乐内容的识别信息从所述另一存储位置被读出,或者当需要时,可通过网络从属性信息的服务器设备等获得属性信息。
在本实施例中,利用乐曲构成信息系统地进行改编。例如,身体信息从收听者反馈给重放设备,动态识别收听者的收听/查看状态,动态识别关于记录/重放设备所处(存在)的位置的周围环境信息,根据属性信息改编适合于所述位置的乐曲,并将其提供给收听者。
如上所述,在第一实施例中,只有当收听者表示出喜欢时才重构乐曲。但是,当收听者没有表示出喜欢时,也可改编乐曲并将其提供给收听者,以致促使用户表示出他或她的偏爱。
自然地,在被收听的乐曲的改编期间,通过把收听者的身体信息反馈给重放设备,参考重放历史信息,并参考周围环境信息,可选择供改编之用的待重混的乐曲或者选择效果。另外,自然地,当推荐的效果信息包含在属性信息中时,可以使用所述推荐的效果信息。
下面参考附图说明上面所述的重放处理的详细处理操作的一个例子。图10是表示功能上提取自第一实施例的记录/重放设备的重放处理部分的方框图。图11-18图解说明乐曲的改编处理。图19-22是图解说明重放处理操作的一个例子。
如图10中所示,和上面说明的记录处理部分中一样,第一实施例的记录/重放设备的重放处理部分也具有两个组件。一个是记录和保持多个音乐内容的音乐内容存储单元20,另一个是重放音乐内容的重放单元200。音乐内容存储单元20与上面所述的音乐内容存储单元相同,从而下面只说明重放单元200。
如图10中所示,重放单元200包括用户接口11、重放历史信息保持单元15、身体信息获取单元30、周围环境信息获取单元40、声音输出单元53和视频输出单元56。重放单元200还包括充当由CPU 1按照保存在ROM 3中的程序执行的处理实现的功能处理单元的视频-声音数据选择确定控制单元201、解码单元202、属性信息获取单元203、视频-声音数据获取单元204、视频-声音数据解码单元205和视频-声音编排处理单元206。
视频-声音数据选择确定控制单元201是根据通过用户接口11输入的用户指令,选择待重放的音乐内容,并对该音乐内容进行重放控制处理(乐曲改编处理)的部分。视频-声音数据选择确定控制单元201还是根据来自重放历史信息保持单元15的重放历史信息,通过身体信息获取单元30获得的身体信息,从周围环境信息获取单元40获得的周围环境信息等,选择待重放的音乐内容,并对该音乐内容进行重放控制(包括乐曲改编)的部分。视频-声音数据选择确定控制单元201对应于CPU 1根据保存在ROM 3中的记录程序,通过使用RAM 4作为其工作区执行的部分。
根据来自视频-声音数据选择确定控制单元201的音乐选择指令,解码单元202从音乐内容存储单元20获得视频-声音数据和属性信息,并对压缩数据进行解压缩-解码处理。解码单元202对应于编码/解码单元12的解码单元。
解码单元202随后把从音乐内容存储单元20读取,并经过解压缩和解码的属性信息传给属性信息获取单元203,并把从音乐内容存储单元20读取的,并经过解压缩和解码的视频-声音数据提供给视频-声音数据获取单元204。
属性信息获取单元203从解码单元202接收读取自音乐内容存储单元20并经过解码的属性信息,把属性信息传给视频-声音数据选择确定控制单元201。属性信息获取单元203由使用RAM 4的一个区域的缓冲单元实现。
视频-声音数据获取单元204从解码单元202接收读取自音乐内容存储单元20并经过解码的视频-声音数据,并把视频-声音数据传给视频-声音数据解码单元205。视频-声音数据获取单元204由使用RAM4的一个区域的缓冲单元实现。
视频-声音数据解码单元205由声音数据解码单元51和视频数据解码单元54构成。视频-声音数据解码单元205对声音数据解码,并把解码的声音数据传给视频-声音编排处理单元206,还对视频数据解码,并把解码的视频数据发送给视频-声音编排处理单元206。
视频-声音编排处理单元206由声音编排单元52和视频编排单元55组成。响应来自视频-声音数据选择确定控制单元201的控制信号,视频-声音编排处理单元206通过重混另一乐曲的声音数据与解码的声音数据,对声音数据进行效果处理,并改变速度、音调或和弦进行,对该乐曲进行改编处理。视频-声音编排处理单元206也对解码的视频数据进行效果处理。
视频-声音编排处理单元206随后把经过重混、效果处理等的声音数据提供给声音输出单元53,另外把经过效果处理的视频数据提供给视频输出单元56。
身体信息获取单元30获得的收听者身体信息被提供给视频-声音数据选择确定控制单元201,并被用于音乐内容选择和乐曲改编。周围环境信息获取单元40获得的周围环境信息,比如记录/重放设备所处位置的信息被提供给视频-声音数据选择确定控制单元201,并被用于音乐内容选择和乐曲改编。
根据从视频-声音数据选择确定控制单元201发送给重放历史信息保持单元15的读请求,重放历史信息保持单元15把保持的重放历史信息提供给视频-声音数据选择确定控制单元201。视频-声音数据选择确定控制单元201使用供给的重放历史信息,以便选择音乐内容和改编乐曲。
图11是表示当从乐曲改编处理的观点来看时,图10中所示的重放单元200的结构的功能方框图。所述结构的基本内容与图10中所示的相同。
如图11中所示,重放单元200包括节奏主单元210和节奏从属单元220。节奏主单元210产生用于改编乐曲的信息和同步信号,它们用作改编乐曲的数据的参考,并供给产生的乐曲改编信息和同步信号。节奏从属单元220从节奏主单元210接收同步信号SYNC和乐曲改编信息ARI,并改编乐曲的数据。来自节奏主单元210的同步信号SYNC与乐曲数据的重放同步地被输出。乐曲改编信息ARI与同步信号SYNC同步地被输出,并且具有与乐曲数据的重放同步地动态变化的值。
就音乐会来说,节奏主单元210具有对应于指挥的功能,节奏从属单元220具有与演奏者名单对应的功能。
视频-声音数据选择确定控制单元201可被分成属于节奏主单元210的视频-声音数据选择确定控制RM单元201M(RM是“rhythmmaster(节奏主)”的缩写),和属于节奏从属单元220的视频-声音数据选择确定控制RS单元201S(RS是“rhythm slave(节奏从属)”的缩写)。属性信息获取单元203既属于节奏主单元210又属于节奏从属单元220。
即,节奏主单元210具有包括视频-声音数据选择确定控制RM单元(下面称为“RM”单元)201M和属性信息获取单元203的结构。
节奏从属单元220具有包括视频-声音数据选择确定控制RS单元(下面称为“RS”单元)201S和属性信息获取单元203,以及身体信息获取单元30,周围环境信息获取单元40,重放历史信息保持单元15,视频-声音数据获取单元204,视频-声音数据解码单元205和视频-声音编排处理单元206的结构。
在第一实施例中,根据正被重放的音乐内容的属性信息(所述属性信息由属性信息获取单元203获得),节奏主单元210的RM单元201M产生充当改编乐曲的参考的乐曲构成数据ARI和同步信号SYNC。RM单元201M随后把产生的乐曲改编数据ARI和同步信号SYNC提供给节奏从属单元220的RS单元201S。
在本实施例中,如图12中所示,作为同步信号SYNC,RM单元201M产生并输出周期与乐曲的小节对应的小节同步信号PHSY,和周期与乐曲的节拍对应的节拍同步信号BTSY。这种情况下,在第一实施例中,RM单元201M产生并输出与正被重放的乐曲的小节和节拍同步的信号。
小节同步信号PHSY是指示乐曲的小节的起点的信号,并且例如只在乐曲的小节的起点具有下降沿脉冲。节拍同步信号BTSY是指示乐曲的节拍的开始的信号,并且例如只在节拍的开始处才具有下降沿脉冲。每个小节的拍数不同,取决于音乐节奏的类型。
乐曲改编数据ARI与这些同步信号同步地从节奏主单元210被发送给节奏从属单元220。由于乐曲改编数据ARI是多值数据,因此数据的信号流经多位信号线,比如数据总线。
在第一实施例中,如图12中所示,作为乐曲改编数据ARI,RM单元201M产生乐曲构成信息的三个值,即,BPM值、音调值和和弦值,并把产生的值提供给节奏从属单元220的RS单元201S。所述值的数据可通过多位信号线传输,或者可通过对应的信号线以串行数据的形式传送每个值的数据。
BPM值是充当指示乐曲将由节奏从属单元220以何种速度重放的主速度的值。BPM值对应于同步信号SYNC的振荡频率。
音调值定义待重放的音乐内容的音调。当没有确定任何特定的音调时,音调值可以是“空”值。当乐曲改编数据ARI中的音调值为“空”值时,节奏从属单元220以任意音调进行重放。
和弦值定义待重放的音乐内容的和弦进行。节奏从属单元220以指定的和弦值或者以替代和弦进行重放。只要按照音乐理论保持曲调就是可接受的。和弦值可以是“空”值。当乐曲改编数据ARI中的和弦值为“空”值时,节奏从属单元220以任意和弦进行重放。
就第一实施例来说,RM单元201M直接输出从正被重放的乐曲的属性信息中提取的BPM值、音调值和和弦值,作为乐曲改编信息ARI。
图13是表示第一实施例中的节奏主单元210的详细结构的示图,特别以方框的形式表示了RM单元201M的功能的细节。从而,从功能的观点来看,RM单元201M包括属性信息分析单元211、同步信号产生单元212、同步信号输出电路213、乐曲改编数据设置单元214和乐曲改编数据输出电路215。
RM单元201M中的属性信息分析单元211从属性信息获取单元203接收正被重放,并且将被改编的乐曲的属性信息,并分析接收的属性信息。属性信息分析单元211从正被重放的乐曲的属性信息中提取上面所述的乐曲构成信息。随后,在提取的乐曲构成信息中,属性信息分析单元211具体地把BPM值提供给同步信号产生单元212,所述BPM值充当速度信息,并且是小节和节拍的一种片断信息。
同步信号产生单元212包括PLL(锁相环)电路216。PLL电路被用于产生以和从属性信息分析单元211供给的BPM值对应的振荡频率振荡的同步信号SYNC。同步信号SYNC包括分别与待重放的音乐内容的小节和节拍同步的小节同步信号PHSY和节拍同步信号BTSY。如图12中所示,同步信号产生单元212把产生的同步信号SYNC经同步信号输出电路213提供给RS单元201S。
在正被重放的乐曲的属性信息(所述属性信息接收自属性信息获取单元203)的乐曲构成信息中,RM单元201M中的属性信息分析单元211提取BPM值、音调值和和弦值,并把提取的值提供给乐曲改编数据设置单元214。
乐曲改编数据设置单元214在BPM值设置单元217中设置接收的BPM值,在音调值设置单元218中设置接收的音调值,在和弦值设置单元219中设置接收的和弦值。分别在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置的BPM值、音调值和和弦值从乐曲改编数据设置单元214被传送给乐曲改编数据输出电路215。如图12中所示,这些值随后作为乐曲改编数据ARI从乐曲改编数据输出电路215被提供给RS单元201S。
与音乐内容的乐曲数据的重放同步,RM单元201M根据从属性信息获取单元203发送的属性信息,实时地产生同步信号SYNC和乐曲改编数据ARI,并把产生的同步信号SYNC和乐曲改编数据ARI提供给节奏从属单元220中的RS单元。
图14表示第一实施例中的节奏从属单元220的详细结构的一个例子。从功能的观点来看,节奏从属单元220中的RS单元201S具有如图14中所示的结构,包括编排控制单元221、速度校正量确定单元222和音程校正量确定单元223。节奏从属单元220中的视频-声音编排处理单元206包括速度校正电路225、音程校正电路226及混频和效果电路227。
编排控制单元221通过属性信息获取单元203,预先从音乐内容存储单元20中的属性信息存储单元22获得所有音乐内容的属性信息,根据获得的属性信息创建乐曲改编属性信息表224,并保持所述乐曲改编属性信息表224。
图15表示乐曲改编属性信息表224的一个例子。这种情况下,作为改编处理的一个例子进行重混。从而,乐曲改编属性信息表224具有供重混之用的属性信息表的结构。从而,如图15中所示,乐曲改编属性信息表224包括相对于乐曲素材名称的和弦值、BPM值、乐曲名称和感觉值。本例中,感觉值只指示快速(uptempo)感觉,但是自然并不局限于此。
为了执行重混处理,对于供重混的每个乐器,编排控制单元221搜索乐曲改编属性信息表224,寻找BPM值和和弦值与从RM单元201M接收的乐曲改编数据ARI中的BPM值和和弦值相同或相近的乐曲素材。
随后,通过参考从身体信息获取单元30发送的身体信息,从周围环境信息获取单元40发送的周围环境信息,和从重放历史信息保持单元15发送的重放历史信息,编排控制单元221确定收听者是否正请求悲观乐曲。此外,通过参考乐曲改编属性信息表中的感觉值,编排控制单元221确定将实际重混的乐曲素材。编排控制单元221向解码单元202发送选择指令,以便从音乐内容存储单元20读取所确定的乐曲素材的声音数据。
响应选择指令,解码单元202从音乐内容存储单元20读取对其发送了选择指令的乐曲素材音频数据。解码单元202随后把用于重混的乐曲素材声音数据连同已读取的待重放视频-声音数据一起传送给视频-声音数据获取单元204。
从而,视频-声音数据获取单元204把供重混的一个或多个乐曲素材的声音数据连同待重放的视频-声音数据一起提供给视频-声音数据解码单元205。
从而,视频-声音数据解码单元205和视频-声音编排处理单元206并行地处理多个视频-声音数据。即,视频-声音数据解码单元205与视频-声音编排处理单元206中的速度校正电路225和音程校正电路226具有其中如图14中所示,在功能上提供与待并行处理的视频-声音数据的数目(图14中为两个)对应的处理电路单元的结构。
图16是表示其中节奏从属单元220中的视频-声音数据解码单元205和视频-声音编排处理单元206中的乐曲信号的流动与来自节奏主单元210的同步信号SYNC同步的情况的示图。这种情况下,乐曲数据(声音数据)的一个重放信号流将被称为“乐曲音轨”。如上所述,节奏从属单元220具有多个乐曲音轨。乐曲音轨中的乐曲数据根据需要被进行速度校正和音程校正,乐曲数据最终由混频和效果电路227混合。
在图16的例子中,从视频-声音数据解码单元205输出的三个乐曲音轨与从节奏主单元210输出的同步信号SYNC同步地被重放,并由最后一级混合和输出。在本例中,乐曲音轨1是待重放的音乐内容的乐曲数据的音轨,乐曲音轨2和3是待混合的乐曲素材的音轨。
待混合的乐曲素材并不必须对应于所有的小节段,如图16中所示的,从而可以仅仅对于待混合的小节段或多节拍段间歇地重放待混合的乐曲素材。
当只对待重放的音乐内容的乐曲数据应用特效而不重混时,只存在待重放的音乐内容的乐曲数据流。在这种情况下,混频和效果电路227对待重放的音乐内容的乐曲数据应用前述特效处理,比如回响或失真。
根据从属性信息获取单元203获得的BPM值和从节奏主单元210发送的乐曲改编数据ARI中的BPM值(它充当目标值(即,目标BPM值))之间的差异,速度校正量确定单元222确定将与目前重放的乐曲重混的乐曲素材的速度校正量。不仅BPM值等于目标BPM的乐曲素材,而且一些乐曲素材,比如音调值和和弦值也可被确定为适合于作为待混合的乐曲素材,即使其BPM值不同于目标BPM值。从而,当选择这样的乐曲素材时,需要如上所述的校正,以匹配BPM值和目标BPM值。
随后,速度校正量确定单元222把确定的速度校正量提供给对应乐曲素材的处理电路部分,处理电路部分包括在速度校正电路225中。
速度校正电路225校正声音数据,以便只改变重放速度,同时使音程保持恒定。对于校正算法来说,存在各种方法,比如利用相关函数的方法。但是,本实施例中的校正并不存在算法方面的特征,从而,下面将省略对其的详细说明。
根据从属性信息获取单元203获得的音调值/和弦值与从节奏主单元210发送的乐曲改编数据ARI中的音调值/和弦值(即,目标音调值/目标和弦值)之间的差异,音程校正量确定单元223确定将与当前重放的乐曲重混的每个乐曲素材的音程校正量。不仅音调值和和弦值与目标音调值和目标和弦值完全匹配的乐曲素材,而且根据其它条件,具有不同值的一些乐曲素材也可被确定为适于用作待重混的乐曲素材。从而,当选择这样的乐曲素材时,需要如上所述的校正,以匹配音调值和和弦值与目标值。
随后,音程校正量确定单元223把确定的音程校正量提供给对应的乐曲素材的处理电路部分,所述处理电路部分包括在音程校正电路226中。
音程校正电路226校正声音数据,以致它只改变音程,同时使速度保持恒定。各种方法可用于校正算法。但是,本实施例中的校正并不存在算法方面的特征,因此这里省略对其的详细说明。
响应来自编排控制单元221的混合控制信号或特效控制信号,混频和效果电路227对从音程校正电路226供给的视频-声音数据应用特效,或者混合从音程校正电路226供给的多个视频-声音数据。待应用的特效的类型取决于从编排控制单元221发送的特效控制信号。
图17表示其中使节奏从属单元220中的视频-声音数据解码单元205和视频-声音编排处理单元206中的乐曲信号的流动与从节奏主单元210发送的同步信号SYNC同步,以及执行节奏从属单元220中的视频-声音编排处理单元206中的乐曲改编的操作,以便对应于节奏主单元210中的乐曲改编数据ARI的情况。
在图17中所示的例子的情况下,乐曲改编数据ARI提取自待重放的音乐内容的属性信息,并且待重放的音乐内容变成乐曲音轨1的重放信号流。在图17中所示的例子中,作为乐曲改编数据ARI,目标值:BPM值“120”、音调值“C大调”和和弦进行“C”→“G”→“F”从节奏主单元210输入节奏从属单元220。
就待重放的音乐内容的乐曲音轨1的重放信号流而论,根据从编排控制单元221送的选择指令,从音乐内容存储单元20获得的两个乐曲素材作为乐曲音轨2和乐曲音轨3从节奏从属单元220中的视频-声音数据解码单元205输出。在节奏从属单元220中,输出的乐曲素材被校正,以便匹配乐曲改编数据ARI中的相应值的目标值,校正后的乐曲素材最后被混合。
即,乐曲音轨2和3的声音数据由视频-声音编排处理单元206校正,以便匹配乐曲改编数据ARI中的目标BPM值和目标和弦值,随后与乐曲音轨1的乐曲数据混合,从而执行重混处理。
这种情况下,如图17中所示,在小节段Pa中,乐曲音轨3的乐曲素材3与乐曲音轨1的声音数据混合。小节段Pa中的乐曲素材3的BPM值(该BPM值能够属性信息获取单元203获得)为“120”,从而与乐曲改编数据ARI中的BPM值相同。从而,视频-声音编排处理单元206不校正乐曲素材3的乐曲数据的速度。
但是,小节段Pa中的乐曲素材3的和弦值(该和弦值通过属性信息获取单元203获得)为“D”,从而不同于乐曲改编数据ARI中的和弦值“C”。从而,如上所述,视频-声音编排处理单元206中的音程校正电路226校正乐曲素材3的乐曲数据的音程,以致产生变化“D”→“C”,从而达到目标值。
在下一个小节段Pb的前半部中,乐曲音轨2的乐曲素材2与乐曲音轨1的声音数据混合。在小节段Pb的后半部中,乐曲音轨2的乐曲素材2及乐曲音轨3的乐曲素材3与乐曲音轨1的乐曲数据混合。
小节段Pb的前半部中的乐曲素材2的BPM值和和弦值(所述值得自于属性信息获取单元203)分别为“100”和“E”,从而不同于乐曲改编数据ARI中的对应目标BPM值“120”和目标和弦值“G”。从而,在小节段Pb的前半部中,乐曲素材2的乐曲数据由视频-声音编排处理单元206校正,以致速度从“100”变成“120”,从而匹配目标BPM值,并且音程从“E”变成“G”,以便匹配目标和弦值。在小节段Pb的前半部中,乐曲素材2的校正后的乐曲数据被添加到乐曲音轨1的乐曲数据中。
在小节段Pb的后半部中,乐曲素材2的BPM值和和弦值分别为“100”和“E”,不同于乐曲改编数据ARI中的目标BPM值“120”和目标和弦值“F”。乐曲素材3的BPM值和和弦值分别为“120”和“F”,与乐曲改编数据ARI中的目标BPM值“120”和目标和弦值“F”相同。
从而,在小节段Pb的后半部中,乐曲音轨2的乐曲素材2的速度和音程由视频-声音编排处理单元206校正,得到的乐曲素材2被添加到乐曲音轨1的乐曲数据中。乐曲音轨3的乐曲素材3未经校正地被添加到乐曲音轨1的乐曲数据中。
如上所述,在第一实施例中,就待重放的音乐内容而论,产生与音乐内容同步的同步信号SYNC和基于音乐内容的乐曲构成信息的乐曲改编数据ARI,并根据产生的同步信号SYNC和乐曲改编数据ARI,混合其它乐曲素材和初始的乐曲。这使得能够平滑地进行对乐曲的所谓“重混处理”。
由于根据同步信号SYNC能够容易地检测小节和节拍的各个片断,因此也能够容易地对乐曲数据进行特效处理。
上面描述的编排控制可实时地动态执行。例如,能够容易地处理频繁地随时间而变化的输入,比如来自身体信息传感器的输入。
在本实施例中,作为重混的一种特效处理,能够执行循环重放处理。循环重放处理指的是反复重放一个或多个小节或者一个或多个节拍的少量乐曲素材数据的处理功能。执行循环重放使得即使只有少量的乐曲素材,也能够无止境地播放音乐。用于循环重放的乐曲素材的例子包括鼓的节奏模板。
例如,在如图18(C)中所示的源乐曲素材中,预先指定标入(MarkIn)点和标出点(Mark Out)点,标入点指示循环重放的起点,标出点指示循环重放的终点。多个这样的乐曲素材信息被保存于例如在音乐内容存储单元20中的属性信息存储单元22中单独设置的“DJ循环信息存储部分”中。自然地,“DJ循环信息存储部分”可设置在不同于属性信息存储单元22的存储区中,以致源乐曲素材信息被保存在该存储区中。
例如,当通过用户接口11从多个乐曲素材中选择和指定一个源乐曲素材并指定循环播放时,指定的乐曲素材的信息从属性信息存储单元22读取,并被提供给节奏从属单元220中的视频-声音数据解码单元205。视频-声音数据解码单元205和视频-声音编排处理单元206执行循环重放,同时根据需要执行速度校正和音程校正。
这种情况下,与同步信号SYNC的小节同步信号PHSY或节拍同步信号BTSY(参见图18(A))同步,视频-声音数据解码单元205和视频-声音编排处理单元206从将对其执行循环重放的乐曲音轨中的源乐曲素材的标入点开始重放,如图18(B)中所示。当一直到标出点完成重放时,重放从标出点跳到标入点,从而执行循环重放。这种情况下,假定从标出点到标入点执行的循环转移的计时与重放到达标出点的计时相符。
这种情况下,由于不仅被执行循环重放的一个乐曲音轨,而且所有的乐曲音轨都与同步信号SYNC同步地被重放,因此能够平滑地进行DJ-循环重放。
下面参考图19和20说明上面所述的重放处理操作。根据ROM 3中的程序,CPU 1通过利用RAM 4作为其工作区,执行图19和20中所示的处理步骤。
首先,用户在用户接口11的显示器的音乐内容选择屏幕上选择所需的音乐内容(乐曲),并向视频-声音数据选择确定控制单元201发出重放第一个乐曲的指令。对于第二个和后续的乐曲,本实施例的记录/重放设备自动选择它们以便继续重放。
当通过用户接口11收到第一个乐曲重放指令时,视频-声音数据选择确定控制单元201检查收到其重放指令的音乐内容。此外,视频-声音数据选择确定控制单元201向解码单元202发出指令,以便从音乐内容存储单元20中的属性信息存储单元22中读取收到其重放指令的音乐内容的属性信息,和所有其它属性信息或者预定数量的属性信息。视频-声音数据选择确定控制单元201随后通过属性信息获取单元203读取响应所述指令,从解码单元202发送的属性信息,并分析属性信息(步骤S61)。
这种情况下,为了选择下一个候选重放乐曲(下面说明),以及改编正在收听的乐曲,视频-声音数据选择确定控制单元201预先获得和分析对其发出重放指令的音乐内容的属性信息,以及其它音乐内容的属性信息,从而为下一个候选重放乐曲的选择做好准备,并且为正在收听的乐曲的改编做好准备。
随后,视频-声音数据选择确定控制单元201向解码单元202发出指令,以便读取对其发出了重放指令的音乐内容的视频-声音数据。作为响应,解码单元202从音乐内容存储单元20读取对其发出了重放指令的音乐内容的视频-声音数据,并把读取的视频-声音数据传给视频-声音数据获取单元204。视频-声音数据获取单元204获得的视频-声音数据被传给视频-声音数据解码单元205并被解码。经由视频-声音编排处理单元206,解码后的数据被提供给声音输出单元53,以致声音被输出,并且解码后的数据还被提供给视频输出单元56,以致视频被输出,从而开始重放(步骤S62)。
当如上所述开始音乐内容的重放时,视频-声音数据选择确定控制单元201从身体信息获取单元30获得收听者身体信息,另外从周围环境信息获取单元40获得周围环境信息(步骤S63)。
之后,根据从身体信息获取单元30获得的收听者身体信息,视频-声音数据选择确定控制单元201确定收听者是否表现出对他或她正在收听的乐曲的偏爱(步骤S64)。
通过经记录/重放设备中的身体信息传感器31和身体信息分析单元32接收身体信息,比如身体运动,视频-声音数据选择确定控制单元201确定收听者目前是否想要积极地收听该音乐。例如,当收听者处于他或她沉浸于音乐中的状态时,身体会自然地随着音乐运动。
即,正在重放的乐曲的乐曲构成信息(例如,每个乐曲素材的片断和速度)与从身体运动传感器(例如加速度传感器)的交叉相关的计算使得能够根据相关系数,在某种程度上确定收听者目前是否想要积极地收听该音乐。这种情况下,更可取的是考虑属性信息中的感觉信息。可假定对于重乐曲,收听者的身体运动相应地变得活跃,对于柔和的乐曲,收听者的身体运动变得缓慢。
可理解的是大的相关系数意味着收听者处于收听者希望积极地查看/收听音乐的所谓“沉浸”状态。当收听者积极地收听音乐时,具有较高“沉浸”数字值的乐曲的反复重放使得能够重放满足用户的偏爱的乐曲。
相反,当收听乐曲期间收听者的身体运动量较小,并且脑电波等平静时,以较小的音量重放“沉浸”数字值较小的柔和乐曲使用户能够以更放松的心情欣赏该音乐。
在不仅参考“沉浸”,而且参考包含在所重放音乐内容的属性信息中的感觉信息的同时,通过分析收听者身体运动,确定用户是否表现出偏爱。感觉信息的例子包括指示“悲观/乐观”、“柔和/沉重”和“悲伤/欢乐”的感觉数字值。即,柔和的乐曲和悲伤的乐曲表现出低的“沉浸”数字值,但是当脑电波、脉搏等平静时,收听者可能表现出对这样的乐曲的偏爱。
当在步骤S64中确定收听者没有对正在重放的乐曲表现出偏爱时,视频-声音数据选择确定控制单元201通过参考重放历史信息保持单元15中的重放历史信息,或者包含在音乐内容中的重放历史信息(该重放历史信息包含在预先获得的属性信息中),检测重放频率较高的乐曲(步骤S65)。
随后,视频-声音数据选择确定控制单元201提取重放频率较高的乐曲的属性信息中的乐曲构成信息,并确定应该会被收听者喜欢的曲调。这种情况下,当存在具有高重放频率的多个乐曲,并且这些乐曲的曲调相同时,确定收听者偏爱该曲调的乐曲构成信息。当存在具有高重放频率的多个乐曲,并且也存在多个曲调时,确定收听者偏爱曲调与这些曲调类似的高重放频率的乐曲的乐曲构成信息。
视频-声音数据选择确定控制单元201随后选择乐曲构成信息与确定为收听者所偏爱的曲调的乐曲构成信息类似的其它乐曲,即,具有类似曲调的其它乐曲,并把选择的乐曲指定为接下来的候选重放乐曲(步骤S66)。这意图根据以前的收听者重放历史向收听者呈现收听者应该会喜欢的乐曲,因为收听者没有表现出对正在重放的乐曲的偏爱。
视频-声音数据选择确定控制单元201随后监视正被重放的乐曲是否已重放到其结尾(步骤S67)。当确定乐曲已重放到其结尾时,重放历史信息保持单元15更新重放的乐曲(音乐内容)的重放历史,还更新音乐内容的属性信息的重放历史信息(步骤S68)。
视频-声音数据选择确定控制单元201从在步骤S66中确定的候选重放乐曲中选择接下来要重放的乐曲的音乐内容,并发出读取音乐内容的视频-声音数据,从而开始乐曲的重放的指令(步骤S69)。处理随后返回步骤S63,重复从步骤S63开始的处理。
当在步骤S67中确定乐曲还未被重放到其结尾时,视频-声音数据选择确定控制单元201确定用户是否已按下设置于用户接口11的操作部分上的“下一按钮”(步骤S70)。当收听者希望收听下一个乐曲,而不是他或她正在收听的乐曲时,按下该“下一按钮”。
当在步骤S70中确定“下一按钮”被按下时,处理进入步骤S69。在步骤S69中,视频-声音数据选择确定控制单元201从在步骤S66中确定的候选重放乐曲中选择接下来要重放的乐曲的音乐内容,并发出读取该音乐内容的视频-声音数据,从而开始该乐曲的重放的指令。处理随后返回步骤S63,重复从步骤S63开始的处理。
当在步骤S70中确定“下一按钮”未被按下时,视频-声音数据选择确定控制单元201确定用户是否按下了用户接口11的操作部分的“停止按钮”(步骤S71)。当确定“停止按钮”未被按下时,处理返回步骤S67,在步骤S67中,视频-声音数据选择确定控制单元201监视正被重放的乐曲的结束。当确定“停止按钮”已被按下时,该重放处理例程结束。
当在步骤S64中确定收听者没有表现出对正在重放的乐曲的偏爱时,视频-声音数据选择确定控制单元201利用上面所述的“沉浸”数字值等确定收听者的偏爱度是否较高(图12中所示的步骤S81)。
当确定收听者的偏爱度不够高时,本实施例中的视频-声音数据选择确定控制单元201考虑从周围环境信息获取单元40获得的周围环境信息,并把曲调与正在重放的乐曲类似的乐曲指定为接下来的候选重放乐曲(步骤S82)。即,视频-声音数据选择确定控制单元201首先选择具有包含与附随正在重放的乐曲的属性信息的乐曲构成信息类似的乐曲构成信息的属性信息的其它乐曲。视频-声音数据选择确定控制单元201从周围环境信息获取单元40获得当前位置信息,比如高山或大海。视频-声音数据选择确定控制单元201随后从选择的乐曲中选择具有包含指示在该位置收听该乐曲的周围环境信息的属性信息的乐曲,并把该选择的乐曲作为接下来的候选重放乐曲。
在步骤S82,可以只要求周围环境信息确定接下来的候选乐曲,而不搜索曲调与正在重放的乐曲类似的任何乐曲。另外,不仅周围环境信息与该周围环境信息匹配的乐曲,而且乐曲构成信息与这些乐曲类似的乐曲都可被确定,并且确定的乐曲可被用作接下来的候选重放乐曲。
随后,当在步骤S81中确定偏爱度较高时,视频-声音数据选择确定控制单元201把曲调与目前正在重放的乐曲类似的乐曲指定为接下来的候选重放乐曲(步骤S83)。即,例如,视频-声音数据选择确定控制单元201首先选择具有包含乐曲构成信息的属性信息的其它乐曲,该乐曲构成信息与附随正在重放的乐曲的属性信息的乐曲构成信息类似,并把选择的乐曲指定为接下来的候选重放乐曲。
另外,视频-声音数据选择确定控制单元201从正在重放的乐曲的属性信息获得每个乐曲素材的乐曲构成信息,以及每个乐曲素材的片断信息(步骤S84)。乐曲构成信息的例子包括速度、音调和和弦进行。每个乐曲素材的片断信息和每个乐曲素材的乐曲构成信息被用于改编乐曲的声音数据,以致在音乐上,所述乐曲不会听起来不自然(步骤S85)。另外,在步骤S85中,也可对视频数据应用效果。
除了上面说明的重混和效果应用之外,声音数据的改编还涉及诸如增大或减小速度,提高或降低音调,以及改变和弦进行之类的处理。
例如,就重混来说,从其它乐曲的乐曲构成信息中选择乐曲构成信息与正在重放的乐曲类似的乐曲,并且在考虑到每个乐曲素材的片断的情况下,平滑地混合选择的乐曲和初始的乐曲。在重混期间,为了确定乐曲素材的哪种音乐数据将被混合,还可参考属性信息中的感觉信息。
另外,在记录/重放设备中预先保存和准备鼓声节奏和打击乐器部分,以便与正在重放的乐曲重混,同时小心地注意每个乐曲素材的片断。
视频-声音数据选择确定控制单元201可被这样配置,以致当选择待重混的另一乐曲时,视频-声音数据选择确定控制单元201通过参考属性信息的周围环境信息,搜索与周围环境相符的乐曲。
当所推荐效果的参数被包含在正在重放的乐曲的属性信息中时,在关注每个乐曲素材的片断的时候,该效果的参数可被用于进行效果处理,以致在音乐上,所述乐曲不会听起来不自然。
在上面所述的例子中,当收听者未表现出对正在重放的乐曲的偏爱时,在步骤S65中获得重放历史信息,并根据重放历史信息在步骤S66中确定接下来的候选重放乐曲。但是,通过分析经由周围环境信息获取单元40获得的周围环境信息,可在步骤S65中确定诸如高山或大海之类的位置,并且具有作为属性信息,与获得的周围环境信息相符的周围环境信息的乐曲可在步骤S66中被指定为接下来的候选重放乐曲。另外,不仅可以获得具有与对应的周围环境信息相符的周围环境信息的乐曲,而且可以获得乐曲构成信息与这些乐曲的乐曲构成信息类似的乐曲,获得的乐曲可被用作接下来的候选重放乐曲。
另外,视频-声音数据选择确定控制单元201可被配置成在步骤S66中,通过使用重放历史信息和周围环境信息来确定接下来的候选重放乐曲。
图21是表示其中节奏主单元210执行同步信号和乐曲改编数据的产生和输出处理的一个例子的流程图。
首先,视频-声音数据选择确定控制RM单元201M通过属性信息获取单元203,从音乐内容存储单元20中的属性信息存储单元22获得待重放的音乐内容的属性信息(步骤S91)。RM单元201M从获得的属性信息中提取BPM值、音调值和和弦值(步骤S92)。
随后,根据提取的BPM值,RM单元201M产生包括小节同步信号PHSY和节拍同步信号BTSY的同步信号SYNC(步骤S93)。另外在BPM值设置单元、音调值设置单元和和弦值设置单元中设置提取的BPM值、音调值和和弦值(步骤S94)。
RM单元201M随后把在步骤S93中产生的同步信号,和包含在步骤S94中设置的BPM值、音调值和和弦值的乐曲改编数据API发送给节奏从属单元220(步骤S95)。
随后确定重放是否结束(步骤S96)。当重放结束时,图21中所示的处理例程结束。当重放未结束时,确定正被重放的乐曲是否已重放到其结尾并且重放结束(步骤S97)。当确定该乐曲的重放还没有完成时,处理返回步骤S93,继续向节奏从属单元220发送同步信号SYNC和乐曲改编数据API。
当在步骤S97中确定乐曲的重放已结束时,准备下一个选择的乐曲的重放(步骤S98)。处理随后返回步骤S91,重复上面说明的处理。
这种情况下,如下所述,记录/重放设置被配置成以致充当乐曲素材单元的音程的片断的时间码信息,在属性信息中描述的时间码信息,以及实际的视频-声音的音程的片断的时间码彼此完全匹配。即,记录/重放设备被配置成以致音乐内容的视频-声音数据与属性信息完全彼此对应。从而,从节奏主单元210供给节奏从属单元220的同步信号SYNC和乐曲改编数据ARI完全与经视频-声音数据获取单元204输入节奏从属单元220的视频-声音数据的重放信号流同步。
图22是节奏从属单元220中的乐曲改编处理的一个例子的流程图。虽然下面只关于乐曲改编处理说明重混处理的一个例子,不过如上所述,也可执行特效处理。
首先,视频-声音数据选择确定控制RS单元201S不仅获得待重放的乐曲,而且通过属性信息获取单元203,从音乐内容存储单元20中的属性信息存储单元22获得多个音乐内容的属性信息(步骤S101)。根据获得的属性信息,RS单元201S检测将与待重放的乐曲重混的乐曲素材(步骤S102)。
这种情况下,RS单元201S可从音乐内容存储单元20中的属性信息存储单元22中读取和获得所有音乐内容的属性信息。但是,当保存在音乐内容存储单元20中的音乐内容的数目较大时,检测将与待重放的乐曲重混的乐曲素材的负载显著增大。因此,在本例中,通过多次分别地从音乐内容存储单元20中的属性信息存储单元22读取属性信息,而不是一次从所述属性信息存储单元22读取所有的属性信息,RS单元201S检测每次将与待重放的乐曲重混的乐曲素材。
由于属性信息多次分别读取自音乐内容存储单元20中的属性信息存储单元22,即使在开始待重放的乐曲的重放之后,也执行待重混的乐曲素材的检测处理。但是,当认为很少与乐曲的重放的开始同时地执行重混时,对于将与待重放的乐曲重混的乐曲素材的检测处理来说,存在足够的时间。
随后,根据来自视频-声音数据选择确定控制RS单元201S的选择指令,通过解码单元202和视频-声音数据获取单元204获得待重放的视频-声音数据,并且开始视频-声音数据的重放(步骤S103)。如上所述,所述重放与从节奏主单元210供给的同步信号SYNC和乐曲改编数据ARI同步地进行。
随后,视频-声音选择确定控制RS单元201S确定是否将对正在重放的乐曲执行重混处理(步骤S104)。当确定不执行任何重混处理时,视频-声音选择确定控制RS单元201S把正在重放的乐曲数据经视频-声音数据解码单元205和视频-声音编排处理单元206,发送给声音输出单元53和视频输出单元56(步骤S105)。
当在步骤S104中确定要执行重混处理时,如上所述,按照来自节奏主单元210的乐曲改编数据ARI重混在步骤S102中检测的乐曲素材的速度和音程与待重放的乐曲数据,同时根据需要校正在步骤S102中检测的乐曲素材的速度和音程(步骤S106)。随后,输出经过重混处理的乐曲数据(步骤S107)。
随后确定重放是否完成(步骤S108)。当重放完成时,图22中所示的处理例程结束。当重放未完成时,确定正在重放的乐曲是否已重放到其结尾,并且重放是否完成(步骤S109)。当确定乐曲的重放还没有完成时,处理返回步骤S104,并重复步骤S104及后续步骤中的处理。
当在步骤S109中确定乐曲的重放已完成时,准备下一个选择的乐曲的重放(步骤S110)。处理随后返回步骤S101,重复上面说明的处理。
[第二实施例]
在上面说明的第一实施例中,主要说明了其中节奏主单元210根据从待重放的音乐内容的属性信息中提取的BPM值、音调值和和弦值,对待重放的乐曲执行作为改编处理的重混处理的情况。从而,对待重放的乐曲的速度和音程没有进行任何改变。但是,乐曲改编处理可包括根据收听者的心情、诸如收听该乐曲的位置之类的周围环境等等,改变和校正待重放的乐曲的速度和音程。
在一些情况下,收听者可发出改变速度或音程的指令。还存在与在记录/重放设备所处位置演奏的鼓和钢琴同步地重放正被重放的乐曲的要求,存在与从记录/重放设备外部输入的乐曲同步地重放乐曲的要求。
第二实施例提供一种能够满足这些要求的记录/重放设备。
图23是就第二实施例来说的记录/重放设备的方框图。该记录/重放设备具有其中线路输入接口17和麦克风输入接口18另外与图1中所示的第一实施例的情况下的记录/重放设备中的系统总线2连接的结构。就硬件来说,其它结构与第一实施例的结构相同。
外部输入端子8与线路输入接口17连接。线路输入接口17把经外部输入端子(线路输入端子)8输入的视频-声音数据发送给系统总线2。
在第二实施例中,响应通过用户接口11输入的用户指令操作,编码/解码单元12对经外部输入端子8输入的视频-声音数据执行记录编码,所得到的视频-声音数据被保存在音乐内容存储单元20中的视频-声音数据存储单元21中。
经外部输出端子8输入的视频-声音数据由曲调分析单元13分析,所得到的乐曲构成信息由编码/解码单元12进行记录编码,并被保存在音乐内容存储单元20中的属性信息存储单元22中。这种情况下,保存在音乐内容存储单元20中的属性信息与对应的视频-声音数据由其识别信息相互联系起来,如上所述。
在第二实施例中,记录/重放设备被配置成允许与经外部输入端子8输入的视频-声音数据的速度同步地重放待重放的乐曲数据,如下所述。即,经外部输入端子8输入的视频-声音数据由曲调分析单元13分析,并且根据BPM值(它是分析的结果之一)产生上面所述的同步信号SYNC。
充当声音收集装置的麦克风9与麦克风输入接口18连接。由麦克风9收集到的声音产生的音频信号由麦克风输入接口18转换成数字信号,所述数字信号随后被发送给系统总线2。
在第二实施例中,记录/重放设备被配置成允许与麦克风9收集,并经麦克风输入接口18输入的声音数据的速度同步地重放乐曲数据,如上所述。
例如,在记录/重放设备附近演奏的鼓、钢琴和乐曲的声音由麦克风9收集,并由曲调分析单元13分析,并且BPM值被检测。根据检测的BPM值产生上面所述的同步信号SYNC。
图24表示根据第二实施例的重放单元200,它对应于上面所述的第一实施例中图10中所示的重放单元。第二实施例的重放单元200与第一实施例的重放单元的不同在于线路输入接口17和麦克风输入接口18与视频-声音数据选择确定控制单元201连接,并且在视频-声音数据选择确定控制单元201的软件处理方面也不同。其它结构与第一实施例中的类似。
图25是表示当从乐曲改编处理的观点来看时,图24中所示的重放单元200的结构的功能方框图。结构的基本内容与图24中所示的相同。
如图25中所示,重放单元200包括节奏主单元210和节奏从属单元220。节奏主单元210产生充当改变乐曲数据的参考的乐曲改编信息和同步信号,并提供产生的信息和信号。节奏从属单元220从节奏主单元210接收所述同步信号和乐曲改编信息,并改编乐曲数据。
如第一实施例中一样,视频-声音数据选择确定控制单元201被分成属于节奏主单元210的RM单元201M,和属于节奏从属单元220的RS单元201S。在第二实施例中,不仅属性信息获取单元203,而且身体信息获取单元30、周围环境信息获取单元40和重放历史信息保持单元15都既属于节奏主单元210,又属于节奏从属单元220。
从而,第二实施例中的节奏主单元210具有包括RM单元201M、属性信息获取单元203、身体信息获取单元30、周围环境信息获取单元40和重放历史信息保持单元15的结构。
另一方面,第二实施例中的节奏从属单元220具有包括RS单元201S、属性信息获取单元203、身体信息获取单元30、周围环境信息获取单元40、重放历史信息保持单元15、视频-声音数据获取单元204、视频-声音数据解码单元205和视频-声音编排处理单元206的结构,和第一实施例中一样。即,节奏从属单元220的结构基本上与第一实施例中的节奏从属单元的结构相同。
节奏主单元201的RM单元201M被配置成不仅根据来自属性信息获取单元203的属性信息,而且根据其它数据和信息,产生充当乐曲的改编参考的同步信号SYNC。在第二实施例中,根据经用户接口11发送的用户输入,经线路输入接口17外部输入的视频-声音数据,经麦克风输入接口18输入的外部收集的音频数据,身体信息获取单元30获得的收听者身体信息,周围环境信息获取单元40获得的周围环境信息,以及从重放历史信息保持单元15读取的重放历史信息,节奏主单元210产生充当改编乐曲的参考的同步信号SYNC。
在第二实施例中,根据经用户接口11发送的用户输入,经线路输入接口17外部输入的视频-声音数据,经麦克风输入接口18输入的外部收集的音频数据,身体信息获取单元30获得的收听者身体信息,周围环境信息获取单元40获得的周围环境信息,以及从重放历史信息保持单元15读取的重放历史信息,节奏主单元210能够产生乐曲改编数据ARI以及同步信号SYNC。
图26是表示第二实施例中的节奏主单元210的详细结构的例子,特别是以方框的形式表示RM单元201M的功能的细节的示图。在第二实施例中,RM单元201M具有取代第一实施例中的同步信号产生单元212的同步信号产生单元230,另外具有取代第一实施例中的属性信息分析单元211的重放模式设置单元240。
不仅属性信息获取单元203的输出,而且身体信息获取单元30、周围环境信息获取单元40、重放历史信息保持单元15、线路输入接口17、麦克风输入接口18和用户接口11的输入都被提供给重放模式设置单元240。其它单元按照和第一实施例中的节奏主单元210中的其它单元相同的方式配置。
同步信号产生单元230具有包括内部节奏同步产生单元231,外部节奏同步产生单元232,身体节奏同步产生单元233和选择开关电路234的结构。选择开关电路234选择从三个节奏同步产生单元231、232和233输出的同步信号之一。
内部节奏同步产生电路231例如具有PLL电路。内部节奏同步产生单元231根据从待重放的音乐内容的属性信息中提取的BPM值,产生同步信号SYNC,如同第一实施例中一样,或者根据用户经用户接口11设置的BPM值产生同步信号SYNC。
外部节奏同步产生单元232例如具有PLL电路,并根据从经线路输入接口17输入的外部输入信号中提取的BPM值,或者从经麦克风输入接口18输入的外部收集的音频信号中提取的BPM值,产生同步信号SYNC,以便与外部输入的音乐节奏同步。
身体节奏同步产生单元233例如具有PLL电路。根据从身体信息获取单元30获得的身体信息,生物统计-节奏同步产生单元233产生与身体信息同步的同步信号SYNC。身体信息的例子包括用户脉波、步行节拍、步行速度、以及手摆动节拍或速度。三个同步产生单元231、232和233可共用一个PLL电路。
在第二实施例中,根据经用户接口11输入的用户同步选择,重放模式设置单元240确定内部节奏同步、外部节奏同步和身体节奏中的哪一个被用于产生同步信号SYNC,并产生用于同步信号产生电路230中的选择开关电路234的选择控制信号。
[内部节奏同步]
(与待重放的音乐内容的同步)
就内部节奏同步来说,还在与待重放的音乐内容的属性信息的同步和与用户经用户接口11设置的BPM值的同步之间进行选择。类似地,就外部节奏同步来说,还在与经外部输入端子8输入的外部输入信号的同步和与麦克风9收集的外部音频的同步之间进行选择。
当与待重放的音乐内容的属性信息的同步被选为内部节奏同步时,重放模式设置单元240把选择开关电路234切换到它选择内部节奏同步产生单元231的输出的状态,并经属性信息获取单元203获得待重放的音乐内容的属性信息。重放模式设置单元240还从属性信息中提取BPM值,并把提取的BPM值提供给同步信号产生单元230中的内部节奏同步产生单元231。内部节奏同步产生单元231产生以与供给其的BPM值对应的振荡频率振荡,并且相位上与待重放的音乐内容的音乐节奏同步的同步信号SYNC。
从而,根据音乐内容的属性信息中的BPM值产生的同步信号SYNC从同步信号产生单元230经同步信号输出电路213被输出给节奏从属单元220。
这种情况下,重放模式设置单元240从待重放的音乐内容的属性信息中提取音调值和和弦值,所述属性信息经由属性信息获取单元203获得,并把所述音调值和和弦值,连同提取的BPM值一起提供给乐曲改编数据设置单元214。乐曲改编数据设置单元214在各自的设置单元217、218和219中设置BPM值、音调值和和弦值。
从而,包含待重放的音乐内容的属性信息的BPM值、音调值和和弦值的乐曲改编数据ARI与同步信号SYNC同步地被输出给节奏从属单元220。从而,和第一实施例中一样,节奏从属单元220根据待重放的音乐内容的属性信息改编乐曲。
(与用户输入的同步)
当选择内部节奏同步中的用户输入设置同步时,重放模式设置单元240把选择开关电路240切换到它选择内部节奏同步产生单元231的输出的状态。重放模式设置单元240还接收经用户接口11输入的BPM值,并把接收的BPM设置值提供给同步信号产生单元230中的内部节奏同步产生单元231。内部节奏同步产生单元231产生以和供给的BPM值对应的振荡频率振荡的同步信号SYNC。
从而,根据用户指定的BPM值产生的同步信号SYNC经同步信号输出电路213从同步信号产生单元230被输出给节奏从属单元220。结果,根据用户指定的BPM值产生的同步信号SYNC经同步信号输出电路213从同步信号产生电路230被提供给同步从属单元220。
此时,除了BPM值之外,重放模式设置单元240还接收通过用户接口11输入的音调值和和弦值(和弦进行),并把接收的BPM值、音调值和和弦值提供给乐曲改编数据设置单元214。这种情况下,音调值和和弦值,以及随着时间而变化的模式由用户输入。乐曲改编数据设置单元214在各自的设置单元217、218和219中设置BPM值、音调值和和弦值。
从而,包含与用户设置的值对应的BPM值、音调值和和弦值的乐曲改编数据ARI与同步信号SYNC同步地被输出给节奏从属单元220。结果,节奏从属单元220能够以用户设置的速度和曲调实现乐曲的声音的重放和输出。
[外部节奏同步]
当选择外部节奏同步时,重放模式设置单元240把选择开关电路234切换到它选择外部节奏同步产生电路232的输出的状态。曲调分析单元13分析按照用户选择经线路输入接口17或者麦克风输入接口18接收的声音数据,重放模式设置单元240把通过分析获得的BPM值提供给外部节奏同步产生单元232。外部节奏同步产生单元232产生以和提供给它的BPM值对应的振荡频率振荡,并且相位与外部输入的音乐节奏同步的同步信号SYNC。
从而,根据从外部输入信号或者麦克风输入信号检测的BPM值产生的同步信号SYNC从同步信号产生单元230经同步信号输出电路213被输出给节奏从属单元220。
重放模式设置单元240从待重放的音乐内容的属性信息中提取音调值和和弦值,所述属性信息经属性信息获取单元203获得,并把音调值和和弦值,连同提取的BPM值一起提供给乐曲改编数据设置单元214。乐曲改编数据设置单元214在相应的设置单元217、218和219中设置BPM值、音调值和和弦值。
从而,包含音调值和和弦值,以及从外部输入信号或麦克风输入信号检测的BPM值的乐曲改编数据ARI与同步信号SYNC同步地被输出给节奏从属单元220。
借助这种方案,在外部节奏同步状态下,节奏从属单元220能够以与外部输入的乐曲同步地设置的速度实现乐曲的声音的重放和输出。
[身体节奏同步]
当选择身体节奏同步时,重放模式设置单元240把选择开关电路234切换到它选择身体节奏同步产生单元233的输出的状态,并从经身体信息获取单元30获得的身体信息中提取关于速度和节奏的分量。根据提取的分量,重放模式设置单元240产生与BPM值对应的信息,并把产生的BPM值提供给同步信号产生单元230中的身体节奏同步产生单元231。
借助这种方案,同步信号产生单元230产生以与用户的身体节奏对应的振荡频率振荡,并且相位与身体节奏同步的同步信号SYNC,并且把产生的同步信号SYNC经同步信号输出电路213提供给节奏从属单元220。结果,节奏从属单元220能够以与用户的身体节奏同步的速度执行乐曲的声音的重放和输出。
当选择身体节奏同步时,通过参考来自周围环境信息获取单元40的周围环境信息,而不是只根据通过身体信息获得单元30获得的身体信息,能够产生同步信号SYNC。
例如,当根据周围环境信息确定记录/重放设备所存在的位置是“大海”,温度较高并且没有下雨时,能够产生同步信号SYNC,以致与身体信息同步地增大速度。当确定记录/重放设备所存在的位置是“高山”时,能够产生同步信号SYNC,以致与身体信息同步地降低速度。
身体信息,比如正在收听乐曲的收听者的脉搏可作为重放历史信息对应于乐曲地被保存和保持在重放历史信息保持单元15中。这种情况下,通过从身体信息获取单元30获得身体信息,搜索重放历史信息保持单元15寻找具有与获得的身体信息接近的身体信息的乐曲,并根据乐曲的属性信息确定BPM值,可产生同步信号SYNC。这种情况下,同步信号SYNC可以或者不可以与从身体信息获取单元30获得的身体信息同步。
这种情况下,在本实施例中,利用来自身体信息获取单元30的身体信息和/或来自周围环境信息获取单元40的周围环境信息作为搜索关键字,重放模式设置单元240搜索保持在重放历史信息保持单元15中的重放历史信息,根据搜索得到的乐曲的属性信息产生BPM值、音调值和和弦值,并把产生的值传给乐曲改编数据设置单元214。乐曲改编数据设置单元214在相应的设置单元217、218和219中设置BPM值、音调值和和弦值。
例如,当根据身体信息确定收听者处于兴奋状态时,根据重放历史能够检测当他或她处于兴奋状态下他或她经常收听的乐曲。这种情况下,方案可以是这样的,即根据乐曲的BPM值产生同步信号SYNC,产生乐曲的BPM值、音调值和和弦进行作为乐曲改编数据ARI,并把乐曲改编数据ARI从节奏主单元210提供给节奏从属单元220。借助这种方案,能够以与用户处于兴奋状态时他或她通常收听的乐曲的速度和曲调类似的速度和曲调重放乐曲。
当根据周围环境信息能够识别位置,比如大海或高山时,或者当根据周围环境信息能够识别气候,比如下雨或晴朗时,通过参考包含在重放历史信息中的周围环境信息,能够从重放历史检测用户经常收听的乐曲。这种情况下,方案可以是这样的,即,根据乐曲的BPM值产生同步信号SYNC,产生乐曲的BPM值、音调值和和弦进行作为乐曲改编数据ARI,并把乐曲改编数据ARI从节奏主单元210提供给节奏从属单元220。借助这种方案,在类似的周围环境条件下,能够以与当用户处于兴奋状态下他或她经常收听的乐曲类似的速度和曲调重放乐曲。
从而,包含根据身体信息和/或周围环境信息及重放历史信息选择的乐曲的属性信息的BPM值、音调值和和弦值的乐曲改编数据ARI与同步信号SYNC同步地输出给节奏从属单元220。结果,节奏从属单元220以与指定时间的用户的心情和周围环境对应的速度和曲调改编乐曲,从而实现声音重放。
在上面的说明中,来自身体信息获取单元30的身体信息和/或来自周围环境信息获取单元40的周围环境信息被用作搜索关键字。但是,根据身体信息和/或周围环境信息可产生诸如欢乐和快速感觉,或者忧郁和慢速之类的搜索关键字,并将其用于搜索保持在重放历史信息保持单元15中的重放历史信息。
BPM值、音调值、和弦值和和弦进行也可产生自身体信息和/或周围环境信息。例如,可以准备关于身体信息和/或周围环境信息的各种状况的BPM值、音调值、和弦值和和弦进行的各种数据值的表格,以致从该表格读取与身体信息和/或周围环境信息对应的BPM值、音调值、和弦值和和弦进行的数据。可根据收听者重放历史产生该表格,或者可由收听者自己产生该表格。
在第二实施例中,产生同步信号SYNC的方法并不局限于上面所述的例子。例如,可根据周围环境信息获取单元40获得的周围环境信息和重放历史信息保持单元15保持的重放历史产生同步信号SYNC。
例如,方案可以是这样的,即,通过利用从周围环境信息获取单元40获得的周围环境信息作为搜索关键字搜索重放历史信息保持单元15中的重放历史,检测与包含在保存于重放历史信息保持单元15中的重放历史中的乐曲属性信息中的周围环境信息相同或类似的周围环境信息,并根据包含在利用周围环境信息作为搜索关键字找到的乐曲属性信息中的BPM值,产生同步信号SYNC。
在上面说明的第一实施例中,待重放的第一乐曲由用户选择。在第二实施例中,第一个乐曲也可由用户选择。就在内部节奏同步、外部节奏同步和身体节奏同步中用户设置的同步来说,节奏从属单元220能够根据保存在音乐内容存储单元20中的属性信息存储单元22中的属性信息,检测具有相同或相似乐曲改编数据ARI的乐曲,从而进行重放。
如同第一实施例中一样,通过利用从节奏主单元210发送的同步信号SYNC和乐曲改编数据ARI,也可执行对正在重放的乐曲的改编处理。
[节奏主单元210的操作的说明]
下面参考图27-29说明由第二实施例中的节奏主单元210执行的处理操作的流程图。
首先,本实施例中的重放模式设置单元240确定用户通过用户接口11选择和指定了什么同步标准(步骤S201)。
当在步骤S201中确定同步是内部节奏同步,并且同步标准是重放的音乐内容时,视频-声音数据选择确定控制RM单元201M中的重放模式设置单元240通过属性信息获取单元203,从音乐内容存储单元20中的属性信息存储单元22获得待重放的音乐内容的属性信息(步骤S202)。重放模式设置单元240随后从获得的属性信息中提取BPM值、音调值和和弦值(步骤S203)。
随后,根据提取的BPM值,RM单元201M产生包括小节同步信号PHSY和节拍同步信号BTSY的同步信号SYNC(步骤S204)。提取的BPM值、音调值和和弦值也在BPM值设置单元、音调值设置单元和和弦值设置单元中设置(步骤S205)。
RM单元201M随后把在步骤S204中产生的同步信号SYNC和包含在步骤S94中设置的BPM值、音调值和和弦值的乐曲改编数据ARI分别发送给节奏从属单元220(步骤S206)。
随后确定重放是否完成(步骤S207)。当重放完成时,该处理例程结束。当重放没有完成时,确定乐曲是否重放到其结尾,并且重放结束(步骤S208)。当确定乐曲的重放还没有完成时,例如确定用户是否通过用户接口11已经执行了改变同步标准的操作(步骤S210)。当确定已经执行了改变同步标准的操作时,处理返回步骤S210,重放步骤S201和后续步骤中的处理。
当在步骤S210中确定没有执行改变同步标准的操作时,处理返回步骤S204,重复步骤S204和后续步骤中的处理。
当在步骤S208中确定乐曲的重放已经完成时,准备下一个选择的乐曲的重放(步骤S209)。处理随后返回步骤S202,并重复上面所述的处理。
随后,当在步骤S201中确定设置的同步标准是在内部节奏同步情况下的用户设置的输入时,重放模式设置单元240获得用户输入设置的BPM值(图28中的步骤S221)。根据获得的BPM值,重放模式设置单元240产生小节同步信号PHSY和节拍同步信号BTSY的同步信号SYNC(步骤S222)。重放模式设置单元240获得用户输入设置的BPM值、音调值和和弦值(步骤S223)。重放模式设置单元240把获得的BPM值、音调值和和弦值发送给乐曲改编数据设置单元214,以致在对应的BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置这些值(步骤S224)。
RM单元201M随后把在步骤S222中产生的同步信号SYNC和包含在步骤S223中设置的BPM值、音调值和和弦值的乐曲改编数据ARI发送给节奏从属单元220(步骤S225)。
随后确定重放是否完成(步骤S226)。当重放完成时,该处理例程结束。当重放没有完成时,确定乐曲是否重放到其结尾,并且重放完成(步骤S227)。当确定乐曲的重放还没有完成时,例如确定用户是否经用户接口11已经执行了改变同步标准的操作(步骤S229)。当确定已经执行了改变同步标准的操作时,处理返回步骤S201,重复步骤S201和后续步骤中的处理。
当在步骤S229中确定还没有执行改变同步标准的操作时,处理返回步骤S225,重复步骤S225和后续步骤中的处理。
当在步骤S227中确定乐曲的重放已完成时,准备下一个选择的乐曲的重放(步骤S228)。处理随后返回步骤S225,并重复步骤S225和后续步骤中的处理。
随后,当在步骤S201中确定设置的同步标准是外部节奏同步时,确定外部输入(它是同步标准)是从外部输入端子8输入的信号还是由麦克风9收集的声音产生的音频信号(图29中的步骤S231)。
当在步骤S231中确定从外部输入端子8输入的信号被用作同步标准时,重放模式设置单元240把经外部输入端子8输入的音频信号提供给曲调分析单元13,以便分析音频信号(步骤S232)。当在步骤S231中确定由麦克风9收集的声音产生的音频信号被用作同步标准时,重放模式设置单元240把从麦克风9收集的声音获得的音频信号提供给曲调分析单元13,以便分析音频信号(步骤S233)。
在步骤S232或S233之后,处理进入步骤S234。根据曲调分析单元13执行的分析的结果,所确定的BPM值被传给同步信号产生单元230,产生同步信号SYNC(步骤S234)。
根据由曲调分析单元13执行的分析的结果,确定BPM值、音调值和和弦值,确定的BPM值、音调值和和弦值被发送给乐曲改编数据设置单元214,以致分别在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置这些值(步骤S235)。
RM单元201M随后把在步骤S234中产生的同步信号SYNC和包含在步骤S235中设置的BPM值、音调值和和弦值的乐曲改编数据ARI发送给节奏从属单元220(步骤S236)。
之后,确定重放是否完成(步骤S237)。当重放完成时,该处理例程结束。当重放没有完成时,确定乐曲是否重放到其结尾,并且重放结束(步骤S238)。当确定乐曲的重放还未完成时,例如确定用户是否经用户接口11已经执行了改变同步标准的操作(步骤S239)。当确定已经执行了改变同步标准的操作时,处理返回步骤S201,重复步骤S201和后续步骤中的处理。
当在步骤S239中确定还没有执行改变同步标准的操作时,处理返回步骤S234,并重复步骤S234和后续步骤中的处理。
当在步骤S238中确定乐曲的重放已完成时,准备下一个选择的乐曲的重放(步骤S240)。处理随后返回步骤S231,并重放步骤S231和后续步骤中的处理。
当在步骤S201中确定设置的同步标准是身体节奏同步时,重放模式设置单元240通过身体信息获取单元30获得收听者身体信息(步骤S251),另外还获得记录/重放设备的周围环境信息(步骤S252)。
随后,从获得的身体信息中提取速度信息,并将其提供给同步信号产生单元230,并根据速度信息产生同步信号SYNC(步骤S253)。如上所述,根据身体信息、周围环境信息和重放历史信息保持单元15的重放历史信息确定BPM值、音调值和和弦值(步骤S254)。
确定的BPM值、音调值和和弦值被发送给乐曲改编数据设置单元214,并且分别在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置(步骤S255)。
RM单元201M随后把在步骤S253中产生的同步信号SYNC和包含在步骤S255中设置的BPM值、音调值和和弦值的乐曲改编数据ARI发送给节奏从属单元220(步骤S256)。
随后确定重放是否完成(步骤S257)。当重放完成时,该处理例程结束。当重放没有完成时,确定乐曲是否被重放到其结尾,并且重放完成(步骤S258)。当确定该乐曲的重放还没有完成时,例如确定用户是否经用户接口11已经执行了改变同步标准的操作(步骤S260)。当确定已经执行了改变同步标准的操作时,处理返回步骤S201,并重复步骤S201和后续步骤中的处理。
当在步骤S260中确定还没有执行改变同步标准的操作时,处理返回步骤S251,并重复步骤S251和后续步骤中的处理。
当在步骤S258中确定乐曲的重放已完成时,准备下一个选择的乐曲的重放(步骤S259)。处理随后返回步骤S251,并重复步骤S251和后续步骤中的处理。
如上所述,在第二实施例中,可对待重放的乐曲执行改变速度和音程的改编。例如,通过改变经用户接口改变速度和音程的指令,收听者能够改编正在重放的乐曲,以便在收听时满足他或她的偏爱,并且能够执行声音重放和输出。
还可执行改编,以致与外部输出的音频同步地重放待重放的乐曲。也可按照收听者的步法或脉搏重放乐曲。另外,可按照周围环境增大或降低速度,或者可按照周围环境升高或降低音调。
图31表示其中收到从节奏主单元210发送的同步信号SYNC和乐曲改编数据ARI的节奏从属单元220中的视频-声音数据解码单元205和视频-声音编排处理单元206中的乐曲信号的流动与从节奏主单元210发送的同步信号SYNC同步,并且还执行节奏从属单元220中的视频-声音编排处理单元206中的乐曲改编的操作,以便对应于节奏主单元210中的乐曲改编数据ARI的情况。
就图31中所示的例子来说,乐曲改编数据ARI不一定提取自待重放的音乐内容的属性信息,并且具有与待重放的音乐内容的BP值不同的BPM值。包含在乐曲改编数据ARI中的音调值和和弦值也不同于待重放的音乐内容中的音调值和和弦值。
在图31中,待重放的音乐内容变成乐曲音轨1的重放信号流。在图31中所示的例子中,作为乐曲改编数据ARI,BPM值“120”、音调值“C大调”、和弦进行的目标值“C”→“G”→“F”从节奏主单元210被输入节奏从属单元220。
就乐曲音轨1的待重放音乐内容的重放信号流来说,节奏从属单元220校正待重放的音乐内容的乐曲数据的速度和音程,根据从编排控制单元221发出的选择指令,从音乐内容存储单元20获得所述音乐内容。两个乐曲素材从视频-声音数据解码单元205输出,作为乐曲音轨2和乐曲音轨3。这两个乐曲素材的乐曲数据被校正,以便与乐曲改编数据ARI中的目标值相符,校正后的乐曲数据最终与乐曲音轨1的待重放音乐内容混合。
即,乐曲音轨1的声音数据由视频-声音编排处理单元206校正,以便与乐曲改编数据ARI的目标BPM值和目标和弦值相符。乐曲音轨2和3的声音数据由视频-声音编排处理单元206校正,以便与乐曲改编数据ARI的目标BPM值和目标和弦值相符。之后,校正后的声音数据与乐曲音轨1的乐曲数据混合,从而实现重混处理。
这种情况下,如图31中所示,在乐曲音轨1的声音数据中,经属性信息获取单元203获得的乐曲素材的小节段Pa和Pb中的BPM值为“140”,它不同于乐曲改编数据ARI中的BPM值“120”。从而,乐曲音轨1的声音数据的速度由视频-声音编排处理单元206校正,从而小节段Pa和Pb中的乐曲音轨1的乐曲数据被校正,以致BPM值从“140”变成“120”。
在乐曲音轨1的小节段Pa中,经属性信息获取单元203获得的和弦值为“D”,它不同于乐曲改编数据ARI中的和弦值“C”。从而,视频-声音编排处理单元206校正音程,从而乐曲音轨1的乐曲数据被校正,以致和弦值从“D”变成“C”。
这种情况下,在小节段Pa中,乐曲音轨3的乐曲素材3与乐曲音轨1的声音数据混合。小节段Pa中的乐曲素材3的BPM值(该BPM值经属性信息获取单元203获得)为“120”,从而与乐曲改编数据ARI中的BPM值相同。从而,视频-声音编排处理单元206不校正乐曲素材3的乐曲数据的速度。
但是,小节段Pa中的乐曲素材3的和弦值(该和弦值经属性信息获取单元203获得)为“D”,从而不同于乐曲改编数据ARI中的和弦值“C”。从而,如上所述,视频-声音编排处理单元206中的音程校正电路226校正乐曲素材3的乐曲数据的音程,以致产生“D”→“C”的变化,从而达到目标值。
在下一个小节段Pb的前半部中,乐曲音轨1的声音数据的和弦值(该和弦值经属性信息获取单元203获得)为“D”,从而不同于乐曲改编数据ARI的和弦值“G”。从而,视频-声音编排处理单元206校正音程,从而乐曲音轨1的乐曲数据被校正,以致和弦值从“D”变成“G”。
在乐曲素材1的小节段Pb的后半部中,乐曲素材1的和弦值(该和弦值经属性信息获取单元203获得)为“D”,从而不同于乐曲改编数据ARI的和弦值“F”。从而,视频-声音编排处理单元206校正音程,从而乐曲音轨1的乐曲数据被校正,以致和弦值从“D”变成“F”。
在下一个小节段Pb的前半部中,乐曲音轨2的乐曲素材2与乐曲音轨1的声音数据混合。在小节段Pb的后半部中,乐曲音轨2的乐曲素材2和乐曲音轨3的乐曲素材3与乐曲音轨1的乐曲数据混合。
小节段Pb的前半部中的乐曲素材2的BPM值和和弦值(这些值经属性信息获取单元203获得)分别为“100”和“E”,并从而不同于乐曲改编数据ARI中的目标BPM值“120”和目标和弦值“G”。从而,在小节段Pb的前半部中,乐曲素材2的乐曲数据的速度由视频-声音编排处理单元206从“100”校正为“120”,以便和目标BPM值相符,乐曲素材2的乐曲数据的音程从“E”校正为“G”,以便与目标和弦值相符。在小节段Pb的前半部中,校正后的乐曲素材2的乐曲数据被增加到乐曲音轨1的乐曲数据中。
在小节段Pb的后半部中,乐曲素材2的BPM值和和弦值分别为“100”和“E”,不同于乐曲改编数据ARI中的目标BPM值“120”和目标和弦值“F”。乐曲素材3的BPM值和和弦值分别为“120”和“F”,与乐曲改编数据ARI中的目标BPM值“120”和目标和弦值“F”相同。
从而,在小节段Pb的后半部中,乐曲音轨2的乐曲素材2的速度和音程由视频-声音编排处理单元206校正,所得到的乐曲素材2被添加到乐曲音轨1的乐曲数据中。乐曲音轨3的乐曲素材3不校正地添加到乐曲音轨1的乐曲数据中。
如上所述,在第二实施例中,根据来自节奏主单元的同步信号SYNC和乐曲改编数据ARI,例如可对待重放的音乐内容进行与收听者的心情相符的改编。此外,能够对初始的乐曲平滑地执行混合另一乐曲素材的所谓“重混处理”
在第二实施例中,由于根据同步信号SYNC,能够容易地检测小节和节拍的暂停,另外能够容易地对乐曲数据进行特效处理。类似地,在第二实施例中,作为重混的一种特效处理,也能够执行循环重放处理。
在第二实施例中,由于也能够根据收听声音重放乐曲的用户的身体信息,周围环境信息或者用户的重放历史信息,改变同步信号,因此可按照用户的偏爱和环境变化进行可变的声音重放。
[其它实施例和修改]
在上面说明的实施例中,音乐内容存储单元由硬盘装置实现,并借助音乐内容识别信息(音乐内容ID),相互关联地记录音乐内容的视频-声音数据和属性信息。但是,如上所述,音乐内容存储单元也可用光盘,比如DVD实现,光盘是一种可拆卸的存储介质(可分离的介质)。
在上面关于音乐内容存储单元的描述中,所有音乐内容伴随有属性信息。但是,利用音乐内容ID作为搜索关键字,例如可通过因特网获得和使用属性信息。这种情况下,与因特网连接的服务器设备具有存储属性信息的存储单元。
即,音乐内容的视频-声音数据和属性信息不必被保存在一个存储单元中,并从而可被保存在独立的存储单元中,只要其结构可使用信息把视频-声音数据和属性信息联系起来。
虽然上面所述的实施例针对的是记录/重放设备,不过不言而喻,本发明可被应用于无记录功能的重放设备。
图19和20中所示的重放处理的流程只是例子,从而,如何进行重放并不局限于此。
例如,在上面的说明中,当偏爱度较高时,例如通过对正在重放的乐曲改变速度或音调,执行重混和应用效果,执行改编处理。但是,与偏爱无关,可对正在重放的乐曲执行改编处理。
可根据从重放历史信息保持单元15获得的重放历史信息,以及待重放的音乐内容的属性信息中的乐曲构成信息,可改编待重放的音乐内容的数据,所述音乐内容的声音将被重放和输出。这种情况下,可根据以前的重放历史检测具有高的收听/查看频率,并且收听者喜欢的乐曲。此外,例如通过利用乐曲的属性信息的乐曲构成信息和正在重放的音乐内容的属性信息的乐曲构成信息,对于每个乐曲素材,可把高频率重放历史的乐曲数据添加到正在重放的音乐内容的数据中。这种方案使得能够平滑地把正在重放的乐曲改编成收听者喜欢的曲调。
可根据从周围环境信息获取装置获得的周围环境信息,以及待重放的音乐内容的属性信息,改编待重放的音乐内容的数据,所述音乐内容的声音将被重放和输出。例如,可通过获得周围环境信息,比如大海、高山、早晨、白天、夜间;通过利用充当属性信息的周围环境信息作为搜索关键字检测与周围环境信息匹配的另一乐曲;和按照待重放的音乐内容的属性信息的乐曲改编信息的片断信息,平滑地重混通过搜索得到的其它乐曲数据,可改编音乐内容的数据。这种方案使得能够改编正在重放的乐曲,以便具有与周围环境对应的曲调。
响应用户经用户接口发送的改编请求,通过利用伴随音乐内容的属性信息的乐曲构成信息,可执行如上所述的改编处理。这种情况下,该方案可以是这样的,即用户能够选择重混、效果应用、速度变化、音调变化和和弦变化中的任意之一。
虽然在上面说明的实施例中处理了包含视频数据的音乐内容,不过不言而喻,音乐内容不一定必须包含视频数据。
在上面说明的第一实施例中,当开始乐曲的重放时,第一个乐曲由用户选择和指定。不过,例如第一个乐曲可由设备根据收听者身体信息、周围环境信息或者重放历史信息自动选择。
例如,方案可以是这样的,即确定收听者是兴奋还是平静,曲调与收听者的状态相同或相反的乐曲被选为第一个乐曲。方案也可以是这样的,即,根据周围环境信息确定当前位置是高山还是大海,并通过参考包含在属性信息中的周围环境信息,把与该位置相符的乐曲选为第一个乐曲。根据重放历史,经常收听的乐曲可被选为第一个乐曲。
工业应用性
本发明允许实时地在乐曲中反映例如收听用户的心情、偏爱和周围环境,从而改编乐曲。于是,能够提高乐曲重放的娱乐性。

Claims (37)

1、一种乐曲数据改编设备,包括:
节奏主单元,用于产生同步信号,以及产生与同步信号同步的乐曲改编信息,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
节奏从属单元,用于通过根据来自节奏主单元的同步信号和乐曲改编信息,改编音乐内容的输入乐曲数据,产生输出的乐曲数据,并输出所述输出的乐曲数据。
2、一种乐曲数据改编设备,包括:
节奏主单元,用于产生同步信号,以及产生与同步信号同步的乐曲改编信息,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
节奏从属单元,用于通过根据来自节奏主单元的同步信号和乐曲改编信息增加多个音乐内容的乐曲数据,产生输出的乐曲数据,并输出所述输出的乐曲数据。
3、按照权利要求1或2所述的乐曲数据改编设备,
其中乐曲改编信息包含指示速度的信息。
4、按照权利要求1或2所述的乐曲数据改编设备,
其中乐曲改编信息包含指示速度的信息和指示音调的信息。
5、按照权利要求1或2所述的乐曲数据改编设备,
其中乐曲改编信息包含指示速度的信息和指示和弦或和弦进行的信息。
6、按照权利要求1或2所述的乐曲数据改编设备,
其中乐曲改编信息包含指示速度的信息、指示音调的信息、和指示和弦或和弦进行的信息。
7、按照权利要求1或2所述的乐曲数据改编设备,
其中通过分析由声音收集装置收集的音频信号,获得同步信号。
8、按照权利要求1或2所述的乐曲数据改编设备,
其中通过分析经外部输入端子输入的音频信号,获得同步信号。
9、按照权利要求1或2所述的乐曲数据改编设备,还包括:
用户操作输入接收装置,用于接收用户操作输入;
其中根据用户操作输入接收装置接收的用户操作输入,节奏主单元产生同步信号和乐曲改编信息。
10、按照权利要求1或2所述的乐曲数据改编设备,还包括:
执行从节奏从属单元输出的输出乐曲数据的声音重放的装置;和
获得收听声音重放输出的收听者的身体信息的装置;
其中基于获得的收听者身体信息,节奏主单元产生同步信号和乐曲改编信息。
11、按照权利要求1或2所述的乐曲数据改编设备,还包括:
获得周围环境信息的周围环境信息获取装置;
其中根据周围环境信息获取装置获得的周围环境信息,节奏主单元产生同步信号和乐曲改编信息。
12、按照权利要求1所述的乐曲数据改编设备,还包括:
获得至少包含音乐内容的每个乐曲素材的乐曲构成信息的属性信息的属性信息获取装置,所述属性信息与包含输入到节奏从属单元的乐曲数据的音乐内容相关;
其中节奏主单元根据指示节奏的信息产生同步信号,所述信息包含在由属性信息获取装置获得的属性信息中。
13、按照权利要求2所述的乐曲数据改编设备,还包括:
第一获取装置,用于从其中保存多个音乐内容的数据的音乐内容数据存储单元获得待重放的音乐内容的数据;和
第二获取装置,用于从其中与音乐内容关联地保存至少包含音乐内容的每个乐曲素材的乐曲构成信息的属性信息的属性信息存储单元获得属性信息;
其中节奏从属单元分析特定音乐内容的属性信息,所述属性信息由第二获取装置获得;通过第一获取装置获得多个音乐内容的乐曲数据,所述多个音乐内容具有与来自节奏主单元的乐曲改编信息类似的乐曲改编信息;通过根据同步信号增加获得的乐曲数据,产生输出的乐曲数据;并输出所述输出的乐曲数据。
14、按照权利要求13所述的乐曲数据改编设备,其中所述特定的音乐内容是用户选择的音乐内容。
15、按照权利要求13所述的乐曲数据改编设备,其中所述特定的音乐内容是由所述设备选为候选重放乐曲的音乐内容。
16、按照权利要求1或2所述的乐曲数据改编设备,
其中节奏主单元包含:
第一同步信号产生单元,用于基于以设置的振荡频率振荡的振荡电路获得同步信号;
第二同步信号产生单元,用于通过分析声音收集装置收集的音频信号或者经外部输入端子输入的音频信号,获得同步信号;
第三同步信号产生单元,用于获得收听声音重放输出的收听者的身体信息,和根据获得的收听者身体信息获得同步信号;和
选择装置,用于选择来自第一同步信号产生单元、第二同步信号产生单元和第三同步信号产生单元之一的同步信号,并输出选择的同步信号。
17、按照权利要求16所述的乐曲数据改编设备,其中选择装置根据用户选择操作输入,选择同步信号。
18、按照权利要求16所述的乐曲数据改编设备,还包括:
执行从节奏从属单元输出的输出乐曲数据的声音重放的装置;和
获得收听声音重放输出的收听者的身体信息的装置;
其中根据获得的收听者身体信息产生用于选择装置的选择信号。
19、一种乐曲数据改编方法,包括:
产生同步信号以及产生与同步信号同步的乐曲改编信息的第一步骤,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
通过根据在第一步骤中产生的同步信号和乐曲改编信息校正音乐内容的输入乐曲数据,产生输出的乐曲数据,并输出所述输出的乐曲数据的第二步骤。
20、一种乐曲数据改编方法,包括:
产生同步信号以及产生与同步信号同步的乐曲改编信息的第一步骤,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
通过根据在第一步骤中产生的同步信号和乐曲改编信息增加多个音乐内容的乐曲数据,产生输出的乐曲数据,并输出所述输出的乐曲数据的第二步骤。
21、一种音乐内容重放设备,包括:
音乐内容数据存储单元,其中保存多个音乐内容的数据;
第一获取装置,用于从音乐内容数据存储单元获得待重放的音乐内容的数据;
节奏主装置,用于产生同步信号,以及产生与同步信号同步的乐曲改编信息,所述同步信号包含周期与乐曲的小节对应的信号,以及周期与乐曲的节拍对应的信号;和
节奏从属装置,用于通过根据来自节奏主单元的同步信号和乐曲改编信息,改编由第一获取装置获得的待重放的音乐内容数据,产生输出的乐曲数据,并进行声音重放和输出。
22、按照权利要求21所述的音乐内容重放设备,还包括:
收集周围音频的声音收集装置;和
分析由声音收集装置收集得到的音频信号的分析装置;
其中节奏主装置根据分析装置进行的分析的结果,产生与声音收集装置收集的音频的曲调一致的同步信号和乐曲改编信息。
23、按照权利要求21所述的音乐内容重放设备,还包括:
外部输入端子,通过所述外部输入端子,从另一设备输入音乐内容的乐曲数据;和
曲调分析装置,用于根据经外部输入端子输入的乐曲数据,分析音乐内容的曲调;
其中根据曲调分析装置进行的分析的结果,产生与经外部输入端子输入的音乐内容的曲调一致的同步信号和乐曲改编信息。
24、按照权利要求21所述的音乐内容重放设备,还包括:
获得收听声音重放输出的收听者的身体信息的装置;
其中节奏主装置根据获得的收听者身体信息,产生同步信号和乐曲改编信息。
25、按照权利要求21所述的音乐内容重放设备,还包括:
获得周围环境信息的周围环境信息获取装置;
其中节奏主装置根据周围环境信息获取装置获得的周围环境信息,产生同步信号和乐曲改编信息。
26、按照权利要求21所述的音乐内容重放设备,还包括:
接收用户操作输入的用户操作输入接收装置;
其中节奏主装置根据用户操作输入接收装置接收的用户操作输入,产生同步信号和乐曲改编信息。
27、一种音乐内容重放设备,包括:
从其中保存多个音乐内容的数据的音乐内容数据存储单元获得待重放的音乐内容的数据的第一获取装置;
从其中与音乐内容关联地保存至少包含音乐内容的每个乐曲素材的乐曲构成信息的属性信息的属性信息存储单元获得属性信息的第二获取装置;
节奏主装置,用于根据待重放的音乐内容的属性信息,产生同步信号以及产生与同步信号同步的乐曲改编信息,所述同步信号包含周期与乐曲的小节对应的信号,和周期与乐曲的节拍对应的信号,所述属性信息由第二获取装置获得;和
节奏从属装置,用于通过根据来自节奏主单元的同步信号和乐曲改编信息改编由第一获取装置获得的待重放的音乐内容数据,产生输出的乐曲数据,并进行声音重放和输出。
28、按照权利要求27所述的音乐内容重放设备,还包括:
获得收听声音重放输出的收听者的身体信息的装置;
其中除了属性信息之外,节奏主单元还根据获得的收听者身体信息,产生同步信号和乐曲改编信息。
29、按照权利要求27所述的音乐内容重放设备,还包括:
获得周围环境信息的周围环境信息获取装置;
其中除了属性信息之外,节奏主装置还根据周围环境信息获取装置获得的周围环境信息,产生同步信号和乐曲改编信息。
30、按照权利要求27所述的音乐内容重放设备,还包括:
接收用户操作输入的用户操作输入接收装置;
其中除了属性信息之外,节奏主装置还根据用户操作接收装置接收的用户操作输入,产生同步信号和乐曲改编信息。
31、按照权利要求27所述的音乐内容重放设备,还包括:
其中保持音乐内容的以前重放历史的重放历史信息保持单元;和
通过参考重放历史信息保持单元中的重放历史,检测具有高重放频率的音乐内容的检测装置;
其中经第二获取装置从属性信息存储单元获得检测装置检测的具有高重放频率的音乐内容的属性信息,和
节奏主单元根据获得的属性信息,产生同步信号和乐曲改编信息。
32、按照权利要求21或27所述的音乐内容重放设备,
其中乐曲改编信息包含指示速度的信息。
33、按照权利要求21或27所述的音乐内容重放设备,
其中乐曲改编信息包含指示速度的信息和指示音调的信息。
34、按照权利要求21或27所述的音乐内容重放设备,
其中乐曲改编信息包含指示速度的信息和指示和弦或和弦进行的信息。
35、按照权利要求21或27所述的音乐内容重放设备,
其中乐曲改编信息包含指示速度的信息、指示音调的信息、和指示和弦或和弦进行的信息。
36、一种音乐内容重放方法,包括:
从其中保存多个音乐内容的数据的音乐内容数据存储单元获得待重放的音乐内容数据的获取步骤;
产生同步信号和产生与同步信号同步的乐曲改编信息的节奏主步骤,所述同步信号包含周期与乐曲的小节对应的信号和周期与乐曲的节拍对应的信号;和
通过根据在节奏主步骤中产生的同步信号和乐曲改编信息改编在第一获取步骤中获得的待重放的音乐内容数据,产生输出的乐曲数据,并执行声音重放和输出的节奏从属步骤。
37、一种音乐内容重放方法,包括:
从其中保存多个音乐内容的数据的音乐内容数据存储单元获得待重放的音乐内容数据的第一获取步骤;
从其中与音乐内容关联地保存至少包含音乐内容的每个乐曲素材的乐曲构成信息的属性信息的属性信息存储单元获得属性信息的第二获取步骤;
根据在第二获取步骤中获得的待重放音乐内容的属性信息,产生同步信号和产生与同步信号同步的乐曲改编信息的节奏主步骤,所述同步信号包含周期与乐曲的小节对应的信号和周期与乐曲的节拍对应的信号;和
通过根据从节奏主步骤获得的同步信号和乐曲改编信息改编在第一获取步骤中获得的待重放的音乐内容数据,产生输出的乐曲数据,并执行声音重放和输出的节奏从属步骤。
CN200580042931.7A 2004-12-14 2005-12-09 乐曲数据重构装置及方法、音乐内容重放装置及方法 Expired - Fee Related CN101080763B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004360670A JP2006171133A (ja) 2004-12-14 2004-12-14 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
JP360670/2004 2004-12-14
PCT/JP2005/022631 WO2006064722A1 (ja) 2004-12-14 2005-12-09 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法

Publications (2)

Publication Number Publication Date
CN101080763A true CN101080763A (zh) 2007-11-28
CN101080763B CN101080763B (zh) 2014-05-14

Family

ID=36587778

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200580042931.7A Expired - Fee Related CN101080763B (zh) 2004-12-14 2005-12-09 乐曲数据重构装置及方法、音乐内容重放装置及方法

Country Status (6)

Country Link
US (1) US8022287B2 (zh)
EP (1) EP1830347B1 (zh)
JP (1) JP2006171133A (zh)
KR (1) KR20070098804A (zh)
CN (1) CN101080763B (zh)
WO (1) WO2006064722A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101918094B (zh) * 2008-01-16 2013-01-02 皇家飞利浦电子股份有限公司 用于自动创建适合于环境中的社交场合和情绪的气氛的系统和方法
CN103262157A (zh) * 2010-12-07 2013-08-21 Jvc建伍株式会社 乐曲顺序决定装置、乐曲顺序决定方法以及乐曲顺序决定程序
CN103795897A (zh) * 2014-01-21 2014-05-14 深圳市中兴移动通信有限公司 自动生成背景音乐的方法和装置
CN108364629A (zh) * 2018-03-12 2018-08-03 南京工程学院 一种智能调节电子琴、其控制系统及其控制方法
CN109144271A (zh) * 2018-09-07 2019-01-04 武汉轻工大学 三维空间音频关注度分析方法、系统、服务器及存储介质
CN109791759A (zh) * 2016-09-29 2019-05-21 夏普株式会社 服务器装置、信息处理终端、系统、以及方法
WO2019242235A1 (zh) * 2018-06-22 2019-12-26 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN110870322A (zh) * 2017-07-14 2020-03-06 索尼公司 信息处理设备、信息处理方法和程序

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE43379E1 (en) * 2003-10-09 2012-05-15 Pioneer Corporation Music selecting apparatus and method
JP4713129B2 (ja) * 2004-11-16 2011-06-29 ソニー株式会社 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
JP4626376B2 (ja) 2005-04-25 2011-02-09 ソニー株式会社 音楽コンテンツの再生装置および音楽コンテンツ再生方法
JP4259533B2 (ja) * 2006-03-16 2009-04-30 ヤマハ株式会社 演奏システム、このシステムに用いるコントローラ、およびプログラム
JP4573131B2 (ja) * 2006-07-21 2010-11-04 ソニー株式会社 コンテンツ再生装置、プログラム及びコンテンツ再生方法
JP2008046273A (ja) * 2006-08-11 2008-02-28 Xing Inc カラオケ装置
US20090083281A1 (en) * 2007-08-22 2009-03-26 Amnon Sarig System and method for real time local music playback and remote server lyric timing synchronization utilizing social networks and wiki technology
US7733214B2 (en) 2007-08-22 2010-06-08 Tune Wiki Limited System and methods for the remote measurement of a person's biometric data in a controlled state by way of synchronized music, video and lyrics
JP4470189B2 (ja) * 2007-09-14 2010-06-02 株式会社デンソー 自動車用音楽再生システム
US20090138332A1 (en) * 2007-11-23 2009-05-28 Dimitri Kanevsky System and method for dynamically adapting a user slide show presentation to audience behavior
US8881003B1 (en) 2007-12-13 2014-11-04 Symantec Corporation Online storage aggregation and publishing
US7895204B1 (en) * 2007-12-13 2011-02-22 Symantec Corporation Redirecting file uploads
KR20100089526A (ko) 2009-02-04 2010-08-12 삼성전자주식회사 생체 신호를 이용한 음악 생성 장치 및 그 방법
US8996538B1 (en) 2009-05-06 2015-03-31 Gracenote, Inc. Systems, methods, and apparatus for generating an audio-visual presentation using characteristics of audio, visual and symbolic media objects
US8071869B2 (en) * 2009-05-06 2011-12-06 Gracenote, Inc. Apparatus and method for determining a prominent tempo of an audio work
US8805854B2 (en) 2009-06-23 2014-08-12 Gracenote, Inc. Methods and apparatus for determining a mood profile associated with media data
US20130139057A1 (en) * 2009-06-08 2013-05-30 Jonathan A.L. Vlassopulos Method and apparatus for audio remixing
JP5392907B2 (ja) * 2009-09-10 2014-01-22 日本電信電話株式会社 再生速度同期装置、再生速度同期方法、及びプログラム
KR101133906B1 (ko) * 2009-12-24 2012-04-12 한국전자통신연구원 합주 연주 서비스 제공 방법 및 시스템
JP5671949B2 (ja) * 2010-11-04 2015-02-18 ソニー株式会社 情報処理装置、および情報記録媒体、並びに情報処理方法
JP5496935B2 (ja) * 2011-03-08 2014-05-21 日本電信電話株式会社 呼吸分布更新装置、呼吸分布更新方法、及びプログラム
TW201237741A (en) * 2011-03-08 2012-09-16 Univ Tamkang Interactive sound and light art device with wireless transmission and sensing capability
FR2973549B1 (fr) * 2011-04-01 2014-02-21 Espace Musical Puce Muse Dispositif permettant de jouer de la musique enregistree
US9070352B1 (en) * 2011-10-25 2015-06-30 Mixwolf LLC System and method for mixing song data using measure groupings
WO2013114421A1 (ja) * 2012-01-30 2013-08-08 パイオニア株式会社 表示システム、表示制御装置、音響機器、表示方法およびプログラム
TW201411601A (zh) * 2012-09-13 2014-03-16 Univ Nat Taiwan 以情緒為基礎的自動配樂方法
JP2014115478A (ja) * 2012-12-10 2014-06-26 Ibex Technology Co Ltd 端末装置、創作物生成方法、創作物生成プログラム、仮想旅行装置及び仮想旅行システム
US9449646B2 (en) * 2013-06-10 2016-09-20 Htc Corporation Methods and systems for media file management
JP5599498B2 (ja) * 2013-09-03 2014-10-01 日本電信電話株式会社 再生速度同期装置、再生速度同期方法、及びプログラム
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
US9495126B2 (en) 2014-02-28 2016-11-15 Hypnalgesics, LLC Self sedation and suggestion system
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
JP6805943B2 (ja) 2017-04-07 2020-12-23 トヨタ自動車株式会社 車両用再生音提供装置
JP7343268B2 (ja) * 2018-04-24 2023-09-12 培雄 唐沢 任意信号挿入方法及び任意信号挿入システム
US10714065B2 (en) * 2018-06-08 2020-07-14 Mixed In Key Llc Apparatus, method, and computer-readable medium for generating musical pieces
US11127386B2 (en) * 2018-07-24 2021-09-21 James S. Brown System and method for generating music from electrodermal activity data
GB2583441A (en) * 2019-01-21 2020-11-04 Musicjelly Ltd Data synchronisation
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11743380B2 (en) * 2021-03-15 2023-08-29 Avaya Management L.P. System and method for context aware audio enhancement
US20230135778A1 (en) * 2021-10-29 2023-05-04 Spotify Ab Systems and methods for generating a mixed audio file in a digital audio workstation

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03163498A (ja) 1990-10-23 1991-07-15 Yamaha Corp 電子楽器
JP2972431B2 (ja) 1992-01-29 1999-11-08 株式会社河合楽器製作所 音響発生装置
JP3163498B2 (ja) 1994-08-25 2001-05-08 新明和工業株式会社 屋外露呈形の立体駐車装置
JP3464290B2 (ja) 1994-10-13 2003-11-05 ローランド株式会社 自動演奏装置
JP3598598B2 (ja) 1995-07-31 2004-12-08 ヤマハ株式会社 カラオケ装置
US5693902A (en) * 1995-09-22 1997-12-02 Sonic Desktop Software Audio block sequence compiler for generating prescribed duration audio sequences
JP2956569B2 (ja) 1996-02-26 1999-10-04 ヤマハ株式会社 カラオケ装置
JPH1063265A (ja) 1996-08-16 1998-03-06 Casio Comput Co Ltd 自動演奏装置
MY121856A (en) 1998-01-26 2006-02-28 Sony Corp Reproducing apparatus.
JP4094114B2 (ja) 1998-04-23 2008-06-04 ローランド株式会社 波形読み出し制御データ処理装置
FR2785438A1 (fr) * 1998-09-24 2000-05-05 Baron Rene Louis Procede et dispositif de generation musicale
US6307141B1 (en) * 1999-01-25 2001-10-23 Creative Technology Ltd. Method and apparatus for real-time beat modification of audio and music signals
JP4219037B2 (ja) 1999-03-17 2009-02-04 シャープ株式会社 コンテンツ再生装置
JP2001184061A (ja) 1999-12-24 2001-07-06 Sony Corp 再生装置および方法、並びに記録媒体
JP2001189969A (ja) 1999-12-28 2001-07-10 Matsushita Electric Ind Co Ltd 音楽配信方法、音楽配信システム、および車載情報通信端末
EP1130570B1 (en) 2000-01-11 2007-10-10 Yamaha Corporation Apparatus and method for detecting performer's motion to interactively control performance of music or the like
JP3646599B2 (ja) 2000-01-11 2005-05-11 ヤマハ株式会社 演奏インターフェイス
JP2001296865A (ja) 2000-04-10 2001-10-26 Mudix Inc 楽曲管理データベースシステム及び楽曲共同制作支援システム
IT1316734B1 (it) * 2000-07-07 2003-05-12 Korg Italy S P A Dispositivo elettronico avvalentesi di piu' sequecers capaci difunzionare in maniera indipendente o coordinata
US6384310B2 (en) * 2000-07-18 2002-05-07 Yamaha Corporation Automatic musical composition apparatus and method
JP2002114107A (ja) 2000-10-10 2002-04-16 Nissan Motor Co Ltd オーディオ装置及び音楽提供方法
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
JP2003005756A (ja) 2001-06-21 2003-01-08 Shinsuke Ohira 電子機器における音楽ファイルデータの再生、配信、放送時に、希望する曲調の時間的変化を伴った選曲順リスト自動生成と、その再生・配信システム。
JP2003173350A (ja) 2001-12-05 2003-06-20 Rainbow Partner Inc 音楽・映像コンテンツを推薦するシステム
JP3886372B2 (ja) 2001-12-13 2007-02-28 松下電器産業株式会社 音響変節点抽出装置及びその方法、音響再生装置及びその方法、音響信号編集装置、音響変節点抽出方法プログラム記録媒体、音響再生方法プログラム記録媒体、音響信号編集方法プログラム記録媒体、音響変節点抽出方法プログラム、音響再生方法プログラム、音響信号編集方法プログラム
JP3823855B2 (ja) 2002-03-18 2006-09-20 ヤマハ株式会社 記録装置、再生装置、記録方法、再生方法及び同期再生システム
DE10223735B4 (de) * 2002-05-28 2005-05-25 Red Chip Company Ltd. Verfahren und Vorrichtung zum Ermitteln von Rhythmuseinheiten in einem Musikstück
JP3926712B2 (ja) * 2002-09-06 2007-06-06 セイコーインスツル株式会社 同期拍報知システム
US7208672B2 (en) * 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
JP3912390B2 (ja) 2004-04-12 2007-05-09 ヤマハ株式会社 テンポ設定装置及び方法
WO2007010637A1 (ja) * 2005-07-19 2007-01-25 Kabushiki Kaisha Kawai Gakki Seisakusho テンポ検出装置、コード名検出装置及びプログラム
JP4940588B2 (ja) * 2005-07-27 2012-05-30 ソニー株式会社 ビート抽出装置および方法、音楽同期画像表示装置および方法、テンポ値検出装置および方法、リズムトラッキング装置および方法、音楽同期表示装置および方法
JP4823804B2 (ja) * 2006-08-09 2011-11-24 株式会社河合楽器製作所 コード名検出装置及びコード名検出用プログラム

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101918094B (zh) * 2008-01-16 2013-01-02 皇家飞利浦电子股份有限公司 用于自动创建适合于环境中的社交场合和情绪的气氛的系统和方法
CN103262157A (zh) * 2010-12-07 2013-08-21 Jvc建伍株式会社 乐曲顺序决定装置、乐曲顺序决定方法以及乐曲顺序决定程序
CN103262157B (zh) * 2010-12-07 2015-05-06 Jvc建伍株式会社 乐曲顺序决定装置以及乐曲顺序决定方法
CN103795897A (zh) * 2014-01-21 2014-05-14 深圳市中兴移动通信有限公司 自动生成背景音乐的方法和装置
CN109791759A (zh) * 2016-09-29 2019-05-21 夏普株式会社 服务器装置、信息处理终端、系统、以及方法
CN110870322A (zh) * 2017-07-14 2020-03-06 索尼公司 信息处理设备、信息处理方法和程序
US12047660B2 (en) 2017-07-14 2024-07-23 Sony Corporation Information processing apparatus, information processing method, and program
CN108364629A (zh) * 2018-03-12 2018-08-03 南京工程学院 一种智能调节电子琴、其控制系统及其控制方法
CN108364629B (zh) * 2018-03-12 2023-11-10 南京工程学院 一种智能调节电子琴、其控制系统及其控制方法
WO2019242235A1 (zh) * 2018-06-22 2019-12-26 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
US11315534B2 (en) 2018-06-22 2022-04-26 Guangzhou Kugou Computer Technology Co., Ltd. Method, apparatus, terminal and storage medium for mixing audio
CN109144271A (zh) * 2018-09-07 2019-01-04 武汉轻工大学 三维空间音频关注度分析方法、系统、服务器及存储介质

Also Published As

Publication number Publication date
EP1830347A1 (en) 2007-09-05
EP1830347A4 (en) 2012-01-11
CN101080763B (zh) 2014-05-14
EP1830347B1 (en) 2016-12-07
US20090249945A1 (en) 2009-10-08
US8022287B2 (en) 2011-09-20
WO2006064722A1 (ja) 2006-06-22
JP2006171133A (ja) 2006-06-29
KR20070098804A (ko) 2007-10-05

Similar Documents

Publication Publication Date Title
CN101080763A (zh) 乐曲数据重构装置及方法、音乐内容重放装置及方法
CN100339907C (zh) 同步重放系统及其记录器和播放器
CN1284368C (zh) 用于再现内容的装置和用于接收内容的装置
CN1801135A (zh) 音乐内容再现装置、其方法和记录装置
CN1183508C (zh) 自动音乐生成方法和系统
CN1192351C (zh) 采用时间扩展/压缩控制技术的音发生装置及方法
CN1808416A (zh) 信息处理设备和方法以及程序
CN1892880A (zh) 内容提供系统、装置及方法、内容分发服务器及接收终端
CN1750000A (zh) 信息处理装置和方法、记录介质、程序和信息处理系统
CN1967695A (zh) 信息处理装置、再现装置、通信方法、再现方法及计算机程序
CN1734452A (zh) 内容提供装置,内容提供系统,网址变换装置,网址变换系统,内容提供方法,和网址变换方法
CN1286024C (zh) 记录装置、记录方法和通信装置
CN1345440A (zh) 信息处理设备和处理方法以及信息贮存介质
CN1940910A (zh) 内容提供系统、装置和方法、内容分发服务器和接收终端
CN101053035A (zh) 记录/再现设备和相关的内容显示控制方法
CN1507266A (zh) 信息处理装置和方法、节目广播系统、存储媒体及程序
CN1991728A (zh) 信息处理设备、方法和程序
CN1779715A (zh) 信息处理设备和方法及其程序
CN1755663A (zh) 信息处理设备、信息处理方法和程序
CN1950880A (zh) 信息处理设备、内容标题显示方法和内容标题显示程序
CN1871850A (zh) 再现设备、方法和程序
CN1552072A (zh) 记录设备与方法和通信设备与方法
CN1822190A (zh) 信息记录设备、信息记录方法、程序存储介质以及程序
CN1816986A (zh) 显示器、显示方法和显示控制程序
CN1813285A (zh) 语音合成设备、语音合成方法和程序

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140514

Termination date: 20211209

CF01 Termination of patent right due to non-payment of annual fee