CN101160615A - 音乐内容重放设备和音乐内容重放方法 - Google Patents

音乐内容重放设备和音乐内容重放方法 Download PDF

Info

Publication number
CN101160615A
CN101160615A CNA2006800124474A CN200680012447A CN101160615A CN 101160615 A CN101160615 A CN 101160615A CN A2006800124474 A CNA2006800124474 A CN A2006800124474A CN 200680012447 A CN200680012447 A CN 200680012447A CN 101160615 A CN101160615 A CN 101160615A
Authority
CN
China
Prior art keywords
music
information
data
music content
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006800124474A
Other languages
English (en)
Other versions
CN101160615B (zh
Inventor
寺内俊郎
佐古曜一郎
山下功诚
宫岛靖
高井基行
佐佐木彻
酒井祐市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101160615A publication Critical patent/CN101160615A/zh
Application granted granted Critical
Publication of CN101160615B publication Critical patent/CN101160615B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/363Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems using optical disks, e.g. CD, CD-ROM, to store accompaniment information in digital form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H5/00Instruments in which the tones are generated by means of electronic generators
    • G10H5/005Voice controlled instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • G10H7/004Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof with one or more auxiliary processor in addition to the main processing unit
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/381Manual tempo setting or adjustment
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/391Automatic tempo adjustment, correction or control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/555Tonality processing, involving the key in which a musical piece or melody is played
    • G10H2210/565Manual designation or selection of a tonality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/091Info, i.e. juxtaposition of unrelated auxiliary information or commercial messages with or between music files
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • G10H2240/135Library retrieval index, i.e. using an indexing scheme to efficiently retrieve a music piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/155Library update, i.e. making or modifying a musical database using musical parameters as indices
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/171Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
    • G10H2240/281Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
    • G10H2240/295Packet switched network, e.g. token ring
    • G10H2240/305Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

本发明涉及音乐内容重放设备和音乐内容重放方法,具体提供了一种能够根据例如收听一首音乐的用户的情绪,容易地重构(编排)该首音乐的设备。第一获取装置从保存多个音乐内容的数据的音乐内容数据存储单元获得将重放的特定音乐内容的数据。第二获取装置从属性信息存储单元获得与以音乐组成元素为单位的音乐内容关联的属性信息。第三获取装置获得与音乐内容关联并与音乐构成信息关联的编排信息。按照由用户发出的编排请求命令,根据由第二获取装置获得的音乐构成信息和由第三获取装置获得的编排信息,重构作为音频重放输出数据输出的音乐内容的数据。

Description

音乐内容重放设备和音乐内容重放方法
技术领域
本发明涉及一种使用户可以按照类似于例如电台节目主持人编排音乐内容的方式的所希望的方式重构(编排)音乐内容的音乐内容重放设备和音乐内容重放方法。
背景技术
诸如光盘或硬盘之类存储介质的存储容量的增大的实现,使得能够把大量的音乐内容保存在存储介质中。提供了一种适合于播放保存在这种大容量存储介质上的音乐内容的重放设备。
在传统的音乐内容重放设备中,用户从大量的音乐内容中选择某一音乐内容,并执行播放所选音乐内容的操作。
另外,已知一种适合于根据用户的音乐内容重放历史,确定候选音乐内容,并向用户呈现候选音乐内容的系统(例如,参见未经审查的日本专利申请No.2003-173350)。
在该传统技术中,如上所述,用户选择待播放的音乐内容,或者设备根据重放历史选择待播放的候选音乐内容,并把选择的候选音乐内容呈现给用户。但是,在传统的音乐内容重放设备中,按照上述方式选择的音乐内容只是按照音乐内容制作人预期的方式被重放,不存在适合于以按照用户的偏爱修改的方式播放音乐内容的重放设备。
即,部分由于音乐内容重放设备的能力方面的限制,制作人或艺术家创作的音乐内容只能由音乐内容重放设备以制作人初始预期的方式重放。
如果允许按照收听者(下面也称为用户)的偏爱,以类似于音乐节目主持人的方式重构音乐内容,例如,通过改变速度或音调,或者使一首音乐与另一首音乐混音,从而把音乐内容编排成所希望的风格,诸如古典风格,爵士风格,hip-hop风格等,那么收听者能够更加喜爱收听音乐。
鉴于上面所述,本发明的目的是提供一种允许用户把音乐内容重构(编排)成所希望的形式,并喜欢收听以编排的形式重放的音乐内容的技术。
发明内容
为了实现上述目的,本发明提供一种如权利要求1所述的音乐内容重放设备,包括:
第一获取装置,用于从保存多个音乐内容的数据的音乐内容数据存储单元获得将重放的特定音乐内容的数据;
第二获取装置,用于从属性信息存储单元获得与音乐内容关联的属性信息,所述属性信息至少包括与音乐内容的每个音乐组成元素关联的音乐构成信息;
第三获取装置,用于获得与音乐内容关联并与音乐构成信息关联的编排信息;
提供对由第一获取装置获得的特定音乐内容数据的音频重放输出的装置;
编排请求命令接受装置,用于接受由收听者发出的编排请求命令;以及
重构装置,用于根据由第二获取装置获得的音乐构成信息和由第三获取装置按照由编排请求命令接受装置接受的编排请求命令获得的编排信息,重构将作为音频重放输出数据输出的音乐内容的数据。
在按照权利要求1所述的音乐内容重放设备中,第三获取装置按照收听者发出的编排请求命令,获得编排信息,并根据编排信息以及根据由第二获取装置获得的音乐构成信息,重构音乐内容的数据。
从而,允许根据用户的情绪和/或偏爱,和/或根据环境情况,实时地重构音乐数据,使得用户能够喜欢收听以根据该情况确定的最佳方式重放的音乐。
附图说明
图1是示出作为按照本发明的音乐内容重放设备的第一实施例实现的记录/重放设备的框图。
图2是示出在按照实施例的记录/重放设备中使用的部分属性信息的示图。
图3是示出在按照实施例的记录/重放设备中使用的部分属性信息的示图。
图4是示出在按照实施例的记录/重放设备中使用的部分属性信息的示图。
图5是示出由图1中所示的记录/重放设备执行的处理的例子的流程图。
图6是示出说明图1中所示的记录/重放设备的操作的流程图。
图7是示出图1中所示的音乐内容存储单元的例子的示图。
图8是示出图1中所示的音乐内容存储单元的例子的示图。
图9是示出图1中所示的记录/重放设备中的存储处理单元的功能框图。
图10是示出由图1中所示的记录/重放设备执行的存储处理的部分流程图。
图11是示出由图1中所示的记录/重放设备执行的存储处理的部分流程图。
图12是示出把编排请求命令输入图1中所示的记录/重放设备的操作的示图。
图13是示出图1中所示的记录/重放设备中的重放处理单元的功能框图。
图14示出图1中所示的记录/重放设备的主要部分的功能框图。
图15是与图14中所示的功能框图相关的示图。
图16是示出图14中所示的部分功能框图的细节的功能框图。
图17是示出图14中所示的部分功能框图的细节的功能框图。
图18是说明图14中所示的功能框图的一部分的示图。
图19是与图14中所示的功能框图相关的定时图。
图20是与图14中所示的功能框图相关的定时图。
图21是说明图14中所示的功能框图的示图。
图22是示出由图1中所示的记录/重放设备执行的重放处理的部分流程图。
图23是示出由图1中所示的记录/重放设备执行的重放处理的部分流程图。
图24是示出由图1中所示的记录/重放设备执行的重放处理的部分流程图。
图25是示出由包括在图14中所示的结构中的主节奏单元执行的处理的流程图。
图26是示出由包括在图14中所示的结构中的从属节奏单元执行的处理的流程图。
图27是示出作为按照本发明的音乐内容重放设备的第二实施例的记录/重放设备的框图。
图28是示出图27中所示的按照第二实施例的记录/重放设备中的重放处理单元的功能框图。
图29是示出图27中所示的按照第二实施例的记录/重放设备的主要部分的功能框图。
图30是示出图27中所示的部分功能框图的细节的功能框图。
图31是示出由包括在图27中所示的结构中的主节奏单元执行的处理的部分流程图。
图32是示出由包括在图27中所示的结构中的主节奏单元执行的处理的部分流程图。
图33是示出由包括在图27中所示的结构中的主节奏单元执行的处理的部分流程图。
图34是示出由包括在图27中所示的结构中的主节奏单元执行的处理的部分流程图。
图35是与图27中所示的功能框图相关的定时图。
图36是示出把编排请求命令输入按照实施例的记录/重放设备的操作的另一例子的示图。
图37是示出把编排请求命令输入按照实施例的记录/重放设备的操作的另一例子的示图。
图38是示出把编排请求命令输入按照实施例的记录/重放设备的操作的另一例子的示图。
具体实施方式
第一实施例
下面参考附图说明本发明的第一实施例。图1是示出音乐内容记录/重放设备的结构的例子的框图,所述音乐内容记录/重放设备是按照第一实施例的音乐内容重放设备与按照第一实施例的适合于记录音乐内容及其属性信息的记录设备的组合。
在该第一实施例中,记录/重放设备包括不仅适合于保存音乐或音乐内容数据的音频数据,而且适合于保存视频数据的音乐内容存储单元。下面,这样的数据一般将被称为音频/视频数据。在该第一实施例中,音乐内容数据和每首音乐的属性信息一起被保存,以使通过识别信息,使每个音乐内容与对应的属性信息关联。
属性信息包括指示确定每首音乐的音乐风格/结构的速度、音调、和弦、节奏等的音乐风格/结构属性信息(注意音乐风格/结构属性信息包括在后面说明的音乐构成信息中)。属性信息还包括表演者信息,歌词信息,印象信息,环境信息和重构信息(下面,也称为编排信息)。当音乐内容包含视频信息时,属性信息可包含和图像的属性有关的信息。
编排信息是按照其把待重放的音乐内容的音乐数据编排成诸如摇滚风格、古典风格、爵士风格、hip-hop风格或黑人灵歌风格的形式的信息。
如后所述,当音乐内容被保存在诸如DVD(数字万用盘)之类的可移动存储介质上时,如果与音乐内容关联的属性信息被保存在该存储介质上,那么所述属性信息可被用于该目的。
这种情况下,当音乐内容数据从诸如DVD光盘之类的存储介质被保存到记录/重放设备的存储单元中时,属性信息也与音乐内容数据相关联地保存。
在没有属性信息被保存在存储介质上的情况下,在把音乐内容数据从存储介质保存到记录/重放设备的存储单元中的时候,记录/重放设备产生必需的属性信息,并与音乐内容的音频/视频数据相关联地保存所产生的属性信息。
在按照第一实施例的记录/重放设备中,可以从例如因特网上的音乐内容提供服务器下载与音乐内容关联的信息。
这种情况下,假定与从音乐内容提供服务器提供给的音乐内容关联的信息包含属性信息。从而,如果音乐内容提供服务器从按照第一实施例的记录/重放设备接收到对音乐内容的请求时,音乐内容提供服务器把所请求的音乐内容的音频/视频数据连同相关属性信息一起发送给记录/重放设备。
如果记录/重放设备接收到音频/视频数据和属性信息,那么记录/重放设备把它们保存在存储单元中,以便通过音乐内容的识别信息,使音频/视频数据和属性信息相互联系。
在本例中,记录/重放设备包括微计算机,如图1中所示,所述微计算机包括CPU(中央处理器)1,程序ROM(只读存储器)3和工作区RAM(随机存取存储器)4。程序ROM3和工作区RAM4通过系统总线2与CPU1连接。
系统总线2还与用户接口11、编/解码器12、音乐风格/结构分析器13、通信接口14、重放历史信息存储单元15和光盘驱动器16连接。
用户接口11包括用户用于输入命令/数据的按钮操作单元(未示出)和诸如LCD(液晶显示器)之类的显示器。例如,如后所述,用户可以通过用户接口11输入命令,以指定把正在播放的音乐内容编排成的风格(例如古典风格或爵士风格)。
编/解码器12与音乐内容存储单元20连接。在本例中,音乐内容存储单元20由大容量硬盘驱动器实现。作为选择,音乐内容存储单元20可由使用大容量的可重写光盘的读/写单元实现。
当数据被写入音乐内容存储单元20的硬盘驱动器中时,编/解码器12把待写入的数据编码成将数据写入硬盘驱动器的格式。另一方面,当从硬盘驱动器读取数据时,编/解码器12对读取的数据进行与编码处理相反的解码处理。在编/解码处理中,编码处理可包括数据压缩处理,相应地,解码处理可包括数据解压缩处理。
在本例中,音乐内容数据不仅包括音乐数据,而且包括与音乐内容相关的视频数据和与音乐内容相关的属性信息(下面详细说明)。
音乐内容存储单元20包括音频/视频数据存储单元21和属性信息存储单元22。音频/视频数据存储单元21适合于保存每个音乐内容的音乐数据和视频数据,属性信息存储单元22适合于保存与每个音乐数据和视频数据相关的属性信息。注意保存在音频/视频数据存储单元21中的音乐数据和视频数据与保存在属性信息存储单元22中的属性信息通过识别每个音乐内容的音乐内容识别信息(内容ID)相互联系起来。
音乐风格/结构分析器13这样工作,使得当音乐内容的音乐数据被保存在音乐内容存储单元20的音频/视频数据存储单元21中时,音乐风格/结构分析器13分析音乐数据,以检测音乐数据的音乐组成元素的边界,并提取每个音乐组成元素的音乐构成信息。注意,音乐构成信息作为属性信息的一部分被保存在属性信息存储单元22中。只有当与待保存的音乐内容关联的信息不包括任何属性信息时,音乐风格/结构分析器13才工作,并且所提取的音乐构成信息被保存为属性信息的一部分。
音乐组成元素指的是可对其应用和弦的音乐的组成元素,比如节拍或小节。音乐构成信息包括指示为每个音乐组成元素定义的,并且确定音乐风格的速度、音调、和弦、音量、节奏、乐谱及和弦中的顺序变化的信息。
通信接口14用于通过诸如因特网5之类的外部网络与音乐内容提供服务器6等连接。在本例中,音乐内容提供服务器6不仅适合于提供音乐数据和视频数据,而且还适合于提供属性信息。
重放历史信息存储单元15保存历史信息,历史信息指示每个音乐内容在记录/重放设备上的播放频率,或者多久播放一次,并且指示播放每个音乐内容的编排风格(即,指示每个音乐内容的编排风格和所述编排风格的使用频率的信息)。更具体地说,对于识别信息(内容ID)识别的每个音乐内容,每个音乐内容的播放次数(频率),每次重放中使用的编排风格,重放时间,生物状态和当播放该音乐内容时的环境情况(环境信息将在下面进一步详细说明)等被保存在重放历史信息存储单元15中。
光盘驱动器16从诸如CD(光盘)或DVD(数字万用盘)之类的光盘7读取音乐数据或视频数据。当与音乐内容关联的属性信息也被保存在光盘7上时,所述属性信息也被读取。
在该记录/重放设备例中,系统总线2还与生物信息获取单元30、环境信息获取单元40和音频/视频输出单元50连接。
生物信息获取单元30包括生物信息传感器31和生物信息分析器32。生物信息传感器31检测依据其判断音乐内容的收听者是否喜欢当前音乐内容到某种程度的信息(生物状态信息)。生物信息传感器31检测收听者的例如身体运动、呼吸、脉搏、血压、体表温度、排汗和/或皮肤电阻方面的生物信息。检测到的生物信息被提供给生物信息分析器32。
当用户正在收听喜欢的音乐,并且非常喜爱该音乐时,收听者的身体运动或呼吸通常与正在播放的音乐的节奏或速度同步。当慢速播放某一旋律时,响应该缓慢的旋律,收听者的身体运动和呼吸往往会变得缓慢。响应音量的突然增大,身体运动往往会变大。相应地,按照在吸气之后暂停呼吸一会儿,随后突然呼气的方式进行呼吸。
也存在以下的趋势,即,当收听者因音乐而精神振奋时,收听者的脉搏速度和排汗增加。相反,当播放的音乐缓慢或者平静时,脉搏速度往往会降低到稳定的状态。
如果生物信息分析器32从生物信息传感器31接收到表示收听者的情感状态的信息时,生物信息分析器32判断收听者是否喜欢正在播放的音乐,并通过系统总线2发送表示判断结果的数据。在该分析处理中,生物信息分析器32参照正在播放的音乐的音乐构成信息来判断收听者的身体运动等是否与音乐同步。
更具体地说,在本实施例中,生物信息分析器32通过比较显示身体运动等的生物信息与多个阈值,来判断偏爱程度并输出所判断的偏爱程度,比如“未表现出偏爱(不喜欢该音乐)”,“表现出偏爱,但是偏爱程度较低”或“表现出非常高的偏爱(非常喜欢该音乐)”
环境信息获取单元40包括GPS接收器41、位置信息输入接口42、环境信息传感器43和环境信息发生器44。
GPS接收器41根据从多个人造卫星接收的无线电波,计算GPS接收器41的位置,并把表示计算出的位置的数据发送给位置信息输入接口42。在本例中,如果位置信息输入接口42从GPS接收器41接收到显示所述位置的信息,那么位置信息输入接口42把所述位置转换成诸如名称之类的位置信息,并通过系统总线2发送该结果。当保存音乐内容时,显示执行音乐内容的存储操作的位置的位置信息被保存为环境信息的一部分,该环境信息是与音乐内容关联的属性信息的一部分。
环境信息传感器43包括温度传感器和湿度传感器。环境信息传感器43还包括用于检测日期/时间和季节的时钟。环境信息发生器44从环境信息传感器43接收信息,并通过系统总线2发送表示温度、湿度、季节和日期/时间的信息。当保存音乐内容时,上述信息也被保存为环境信息的一部分,该环境信息是与音乐内容关联的属性信息的一部分。
音频/视频输出单元50包括音频数据解码器51、音频编排单元52、音频输出单元53、视频数据解码器54、视频编排单元55、视频输出单元56和I/O端口57。
当提供给音频数据解码器51的音频数据是无损的PCM音频信号时,音频数据解码器51不对接收到的音频数据进行任何处理,只是通过音频编排单元52把接收到的音频数据传送给音频输出单元53。当音乐数据处于根据例如ATRAC(自适应变换声编码)方案或AAC(高级音频编码)方案等的压缩形式时,音频数据解码器51通过对接收到的音乐数据进行解压缩,把接收到的音乐数据解码成数字音频信号。当音频数据是MIDI(电子乐器数字接口)数据时,音频数据解码器51由MIDI数据生成数字音频信号。
音频编排单元52按照通过I/O端口57提供给音频编排单元52的控制信号,进行诸如变速、改变音高、音效应用、与另一音乐数据混音(重混)等的编排。这使得能够把音乐风格/结构或编排风格变成指定的风格,比如古典风格、爵士风格等。
在本实施例中,音频编排单元52对音乐数据应用的音效包括失真和回响(reverb)等。
重混是一种电台节目主持人广泛应用的以小节或节拍为单位,将多个音乐素材与正在播放的音乐混合,而不破坏原始音质的技术。更具体地说,按照所准备的指示小节的边界(音乐组成元素的边界)、速度、和弦等的音乐构成信息,按照音乐理论,把多个音乐素材和正在播放的音乐混合成音乐上自然的形式。重混也有助于把音乐风格/结构或编排风格变成所希望的风格,比如古典风格、爵士风格等。
在重混处理中,在CPU1的控制下,从其它音乐数据提取将与当前正在播放的音乐数据混合的音乐数据,并将其提供给音频数据解码器51。从而,在本实施例中,音频数据解码器51被配置成并行进行当前正在播放的主音频数据的解码和待混合的音频数据的解码。
音频编排单元52的输出被提供给音频输出单元53。音频输出单元53把接收到的数字音频信号转换成模拟音频信号,并把得到的模拟音频信号经放大器(未示出)提供给扬声器,或者经输出端子提供给耳机(未示出),从而听觉上输出音乐数据。
在本实施例中,视频数据解码器54解码(解压缩)与音乐内容关联的压缩视频数据。与音乐内容关联的压缩视频数据可以是JPEG(联合图像专家组)静止图像数据,或者MPEG(运动图像专家组)-2或MPEG-4运动图像数据。视频数据解码器54具有解压缩这种格式的数据的能力。
视频数据解码器54解码的视频数据被提供给视频编排单元55。视频编排单元55对接收到的视频数据应用图像效果。可按照已知的技术进行该处理,因此这里省略对其的进一步详细说明。
从视频编排器55输出的视频数据被提供给视频输出单元56。视频输出单元56经视频输出端子把接收的数字视频数据直接输出给显示器,或者在把数字视频数据转换成模拟形式之后(如果需要的话)输出给显示器,以便按照视频数据在显示器的屏幕上显示图像。
属性信息
在本实施例中,每个音乐内容的属性信息包括与每首音乐关联的各种信息。
(1)音乐构成信息
音乐构成信息包括表示音乐组成元素之间的边界的信息,表示音乐的速度、音调、和弦、音量和节奏的信息,乐谱信息,表示和弦序列的信息,表示将被反复混合的音乐波形的上升定时的信息等。表示速度的信息可用例如BPM(每分钟的拍数)显示。
音乐的风格由音乐构成信息表示。音乐内容记录/重放设备分析音乐构成信息,以判断音乐的风格。即,当某些音乐在音乐构成信息方面类似时,判断为它们在音乐风格方面也类似。当收听者对当前正在播放的音乐表现出一定的兴趣时,音乐构成信息使得能够提取其它的类似的音乐,并把它们中的一些选为在当前音乐之后播放的候选音乐。
另一方面,当收听者对正在播放的音乐没有表现出兴趣时,检查重放历史,以检测收听者喜欢的音乐,并分析与检测到的音乐关联的音乐构成信息。根据分析结果,具有类似音乐构成信息的一首或多首音乐被选为在当前音乐之后接下来播放的候选音乐。
此外,利用包含在音乐构成信息中的指示音乐组成元素之间的边界,音乐的速度,和弦序列等的信息,能够把多首音乐重混成音乐上自然的形式。
注意,属性信息应完全对应于音乐内容的音频/视频数据。例如,包括在属性信息的音乐构成信息中的,指示诸如小节之类的音乐组成元素的边界的时间码信息应完全对应于指示实际音频/视频数据的小节的边界的时间码信息。
这种完全对应使得能够从音乐构成信息中准确地检测当前正在播放的音乐的音乐组成元素,比如小节或节拍之间的边界,从而能够与当前正在播放的音乐的音乐组成元素的边界同步地把以音乐组成元素为单位的音乐素材的信息添加到正在播放的音乐中,从而实现音乐上自然的重混。
(2)效果信息
效果信息表示应用于音乐的音效,包含与失真、回响等关联的效果参数。为了随着时间改变效果参数,效果信息包括时变参数。
在按照本实施例的音乐内容记录/重放设备中可准备多条效果信息。但是,当对于一首特定的音乐存在推荐的效果信息时,该效果信息被包含在与该首特定音乐关联的属性信息中。推荐的效果信息由例如音乐内容的制作者给出。注意在属性信息中可以描述多条效果信息。
可取的是在属性信息中以音乐组成元素为单位描述效果信息。以音乐组成元素为单位描述效果信息使得当重放音乐时,能够以音乐组成元素为单位实时地改变效果。
(3)编排信息
如上所述,编排信息是依据其把原始音乐编排成诸如摇滚风格、古典风格、爵士风格等特殊风格的信息。为了随时间改变编排参数,编排信息包括时变参数。
不是以在音乐内容记录/重放设备中准备多种编排信息的方式,而是以把每首音乐的推荐编排信息包括在与保存在音乐内容存储介质上的每首音乐关联的属性信息中的方式,来提供所述编排信息。作为选择,可以提供推荐的编排信息作为与从音乐内容提供服务器6下载的每首音乐关联的属性信息的一部分。在本实施例中,编排信息并不局限于按照上述方式提供的推荐编排信息,相反编排信息可由用户产生,并被登记成一首特定音乐的属性信息的一部分。
用户为一首特定音乐产生的编排信息可被上传至服务器6,由音乐内容的制作人产生的编排信息可被保存在服务器6中,以便任意用户可以免费或者支付一定费用地从服务器6获得编排信息。
注意在属性信息中可包括多种编排信息。此外,每种编排信息可以包括多个子类的编排信息。例如,用于编排成古典风格的编排信息可包括用于编排成例如巴赫风格、贝多芬风格、莫扎特风格等的多个子类的编排信息。
希望在属性信息中以音乐组成元素为单位描述编排信息。以音乐组成元素为单位描述编排信息使得当重放音乐时,能够以音乐组成元素为单位实时地改变编排。
图2示出编排信息的一个例子。在该例中,通过改变和弦和鼓声部分,原始的摇滚音乐被编排(重构)成黑人灵歌风格。
在该例中,如图2中所示,尽管只存在一种模式的鼓声部分的编排,但是对于和弦序列的编排来说存在四种模式,使得用户可以选择这四种模式之一。
注意图2中所示的编排信息是例子之一,因为一些用户喜欢的编排结果可能不被其它用户接受,因此这里并不保证该编排信息能够以任何用户可接受的方式,把任意一首音乐从摇滚风格编排成黑人灵歌风格。即,图2中所示的编排信息是由音乐内容的制作人推荐的编排信息的一个例子,即使对于类似的编排风格,也能够以很多种方式产生编排信息。
如上所述,一首音乐的编排信息并不局限于一种,相反可以为同一首音乐准备多种编排信息。图3示出描述成多首音乐中的每首音乐的属性信息的一部分的编排信息的例子。
如图3中所示,除了编排信息之外,属性信息还包括与音乐识别信息(音乐ID)关联的音乐构成信息,效果信息和后面说明的各种信息。对于诸如古典风格、爵士风格、摇滚风格、黑人灵歌风格和hip-hop风格等多种音乐风格中的每一种,说明编排信息。尽管图中未示出,每种编排信息可包括多个子类的编排信息,比如古典-1类型,古典-2类型,古典-3类型等。
(4)乐器信息
乐器信息是与用于一首音乐的诸如鼓和吉它等乐器相关的信息。例如,可对于一个小节在属性信息中说明指示诸如鼓之类的打击乐器的演奏形式的乐器信息,并且该乐器信息可被反复用于反复演奏该打击乐器。特定乐器的演奏形式信息可被用于重混。
代替把对于一个小节的打击乐器的演奏形式信息描述成属性信息的一部分,在记录/重放设备中可预先提供多种形式的乐器信息。这样的乐器信息可被用于重混。
(5)表演者信息
表演者信息是与表演者相关的信息,可包括表示乐器的表演者(或者一组表演者)(或者歌手)的姓名,性别,年龄和团体等。
(6)印象信息
印象信息表示收听者对一首音乐的感觉认识。例如,收听者对一首特定的音乐感觉上认识的印象,比如欢快/忧郁印象,平和/狂野印象,快乐/悲伤印象等,由印象信息定量表述。例如,如下所述获得印象信息。如图4中所示,预先定义诸如欢快/忧郁印象轴,平和/狂野印象轴,快乐/悲伤印象轴之类的印象轴,对于每个印象轴,收听者输入指示他/她对一首特定音乐的印象的值。
例如,在欢快/忧郁印象轴的情况下,如图4中所示,主观感觉认识的程度以16级数字地表示。在图4中所示的例子中,最忧郁级别被赋值为“-8”,更欢快的级别用更大的数值表示。按照类似的方式定义比如平和/狂野印象轴和快乐/悲伤印象轴的其它轴。可为其它印象项目定义印象轴。
在输入各印象轴上的数值之后,如图4中所示,通过用线连接轴上的各值,能够获得对于一首特定音乐的印象的示意表示(在图4的例子中,三角形的形状随音乐风格/结构而变化)。换句话说,利用印象轴表示音乐风格/结构使得能够容易地搜索具有类似音乐风格/结构的音乐。
在利用印象轴表示保存在存储介质上的音乐内容的音乐风格/结构,并且所述音乐风格/结构被描述成与音乐内容关联的属性信息的一部分情况下,或者在利用印象轴表示的音乐风格/结构被包括在从音乐内容提供服务器提供的属性信息中的情况下,感兴趣的一首特定音乐由许多收听者,例如数十位收听者评价,在印象信息中描述各轴上的印象值的平均值。
记录/重放设备的用户可定义对一首特定音乐的印象信息。当在包括在保存于存储介质上的属性信息中,或者包括在从音乐内容提供服务器获得的属性信息中的印象信息中描述的印象值不同于收听者评价的印象值时,收听者可重写在包括于属性信息中的印象信息中描述的印象值,所得到的包括重写的印象值的属性信息可被保存在记录/重放设备的音乐内容存储单元中。
(7)环境信息
环境信息可以包含表示DVD制作人或者音乐内容提供服务器的操作者推荐的适当的收听位置,比如山,海滩等。如后所述,当在记录/重放设备上记录一首音乐时,环境信息获取单元40可获得表示进行所述记录情况下的位置、日期/时间、季节、温度、湿度等的信息作为环境信息。这种情况下,环境信息可包括表示收听者定义的适当的收听位置的位置信息。
(8)重放历史信息
重放历史信息表示收听者收听每首音乐的频率或者多久收听一次。在本实施例中,如上所述,重放历史信息被保存在记录/重放设备的重放历史信息存储单元15中。当音乐内容的数据被记录在音乐内容存储单元20中时,重放历史信息作为属性信息的一部分被保存在音乐内容存储单元20的属性信息存储单元22中。
注意,DVD制作人提供的属性信息或者从服务器提供的属性信息并不包括重放历史信息。
按照第一实施例的记录/重放设备进行的记录处理
下面说明按照第一实施例的记录/重放设备进行的记录处理。可按照各种模式进行该记录处理。
在一种模式中,保存在DVD光盘上的音乐内容的数据被读取并记录在音乐内容存储单元20中。在另一中模式中,通过因特网5从音乐内容提供服务器6接收音乐内容的数据,并记录接收到的数据。在另一种模式中,尽管图中未示出,不过通过外部输入端子从另一重放设备等接收音乐内容的数据,并将接收到的数据记录在音乐内容存储单元20中。
在按照任意模式的记录处理中,当音乐内容的数据包括属性信息时,除了音乐内容的音频/视频数据之外,按照本实施例的记录/重放设备还读取属性信息并将其保存在音乐内容存储单元20中。在按照本实施例的记录/重放设备中,当进行记录处理时,允许用户根据需要增加或修改属性信息。
在音乐内容的数据只包括音频/视频数据,不包括属性信息的情况下,按照本实施例的记录/重放设备可产生(设置)属性信息,并把所产生的属性信息保存在音乐内容存储单元20的属性信息存储单元22中。
更具体地说,音乐风格/结构分析器13通过分析从DVD光盘读取的音频数据,或者通过下载获得的音频数据,获得音乐构成信息,并把所获得的音乐构成信息保存为属性信息的一部分。如上所述用户可输入一个16级数值作为表示对一首音乐的印象的印象信息。所输入的印象信息被保存为属性信息的一部分。通过环境信息获取单元40获得的环境信息也被保存为属性信息的一部分。此外,重放历史信息根据需要被保存为属性信息的一部分。
在本实施例中,假定在因特网5上存在属性信息提供服务器。如果该服务器接收到包括识别信息的下载请求,所述识别信息指定与属性信息对应的音乐内容,那么该服务器发送所请求的与识别信息标识的音乐内容对应的属性信息。
图5和6是示出在从音乐内容提供服务器6获得音乐内容和相关属性信息的处理中,记录/重放设备和音乐内容提供服务器6的操作的流程图。
虽然在下面的讨论中,举例来说,假定音乐内容的数据和相关属性信息从音乐内容提供服务器6提供给记录/重放设备,但是可按照类似的方式在多个记录/重放设备之间传送属性信息。
图5示出由记录/重放设备执行的获得音乐内容的数据和相关属性信息的处理,图6示出由音乐内容提供服务器6执行的提供音乐内容的数据和相关属性信息的处理。
如果在记录/重放设备上执行操作以启动发出对音乐内容数据和相关属性信息的请求的程序,那么记录/重放设备的CPU1开始图5中所示的处理。在该处理中,首先接收对待下载的音乐内容的选择(步骤S11)。
根据接收到的选择,产生音乐内容提供请求,音乐内容提供请求包含待下载的音乐内容的标识符,并通过通信接口14和因特网5把产生的请求发送给音乐内容提供服务器6(步骤S12)。
音乐内容提供服务器6的控制单元(CPU)一直运行以执行图6中所示的处理,以便不断监视通过因特网5和置于音乐内容提供服务器6中的通信接口接收到的来自记录/重放设备的音乐内容提供请求的到达(步骤S21),并判断是否接收到了请求(步骤S22)。如果在步骤S22中判断为没有接收到音乐内容提供请求,那么处理流程返回步骤S21,重复从步骤S21开始的处理,直到接收到音乐内容提供请求为止。
如果音乐内容提供服务器6的控制单元在步骤S22中判断为从记录/重放设备接收到了音乐内容提供请求,那么服务器6的控制单元根据包含在接收到的请求中的音乐内容标识符,搜索保存在服务器6中的音乐内容,以检测所请求的音乐内容的数据和相关属性信息(步骤S23)。
音乐内容提供服务器6的控制单元判断是否找到了所请求的音乐内容的数据(步骤S24)。如果已找到所述数据,那么音乐内容提供服务器6的控制单元通过通信接口和因特网5,把所述数据发送给请求音乐内容的记录/重放设备(步骤S25)。处理流程随后返回步骤S21,重复从步骤S21开始的处理。
另一方面,在步骤S24中判断为所请求的音乐内容的数据不存在的情况下,音乐内容提供服务器6的控制单元产生表示所请求的音乐内容的数据不存在的响应消息,音乐内容提供服务器6的控制单元通过通信接口和因特网5把响应消息发送给作为音乐内容请求方的记录/重放设备(步骤S26)。处理流程随后返回步骤S21,重复从步骤S21开始的处理。
如果发出请求的记录/重放设备经通信接口14接收到来自音乐内容提供服务器6的响应(消息)(步骤S13),那么记录/重放设备分析接收到的响应,以判断是否已接收到请求的音乐内容的数据(步骤S14)。如果在步骤S14中判断为接收到了请求的音乐内容的数据,那么接收到的音乐内容的数据和连同音乐内容一起提供的属性信息被保存在音乐内容存储单元中(步骤S15)。从而,结束图5中所示的处理。
另一方面,在步骤S14中判断为没有接收到请求的音乐内容的数据(即,接收到了表示所请求的音乐内容的数据不存在的消息)的情况下,记录/重放设备的控制单元通过利用在图1中未示出的置于记录/重放设备中的诸如LCD(液晶显示器)之类的显示装置,或诸如LED(发光二极管)之类的发光装置,或者诸如蜂鸣器之类的警报器通知记录/重放设备的用户所请求的音乐内容的数据不存在(步骤S16),记录/重放设备的控制单元结束图5中所示的处理。
在本实施例中,如上所述,记录/重放设备被配置成使得当记录/重放设备接收到指定音乐内容的数据时,记录/重放设备还接收与音乐内容的数据一起提供的属性信息,并且使得接收到的音乐内容的数据和与音乐内容的数据关联的属性信息被保存在音乐内容存储单元20中,以便它们可用于重放。
在未与音乐内容的数据相关联地提供属性信息的情况下,根据通过音乐风格/结构分析器13进行的分析产生的音乐构成信息,或者根据环境信息获取单元获得的环境信息,产生属性信息,将所产生的属性信息与音乐内容的音频/视频数据相关联地保存在音乐内容存储单元20中。
另一方面,在记录/重放设备的音乐内容存储单元中没有保存音乐内容的属性信息,不过保存了音乐内容的音乐数据的情况下,记录/重放设备可把包括音乐内容的标识符的属性信息提供请求发送给服务器6,从而只获得属性信息。
图7示出作为按照本实施例的记录/重放设备的音乐内容存储单元20的例子的硬盘驱动器的基本结构。充当音乐内容存储单元20的硬盘驱动器20HD包括保存诸如音乐内容的音频数据和/或视频数据的音频/视频数据Dt的存储区23,和保存属性信息At的存储区24。存储区23起音频/视频数据存储单元21的作用,存储区24起属性信息存储单元22的作用。
尽管在本实施例中,音乐内容存储单元20由硬盘驱动器实现,但也可利用可移动的存储介质,比如以DVD光盘为代表的光盘介质来实现音乐内容存储单元20。图8示出可用作音乐内容存储单元20的光盘介质(例如磁光盘)20RD的一个例子。
如图8中所示,内容数据(音频/视频数据)Dt,比如音频内容数据和/或视频内容数据被保存在光盘20RD的数据存储区中。此外,如图8中所示,除了诸如导入区,TOC(内容表)区和导出区之类的作为通常在光盘上设置的存储区的其它区域之外,光盘20RD还包括保存内容属性信息At的存储区。当内容数据Dt包括多首音乐的数据时,保存每首音乐的属性信息。这种情况下,如上所述,通过音乐内容识别信息(音乐内容ID),使内容数据Dt和属性信息At相互联系起来。
包括保存于其上的音乐内容数据的光盘20RD可由音乐内容制作人产生并在市场上提供。作为选择,利用个人计算机等,一般用户可通过经由因特网下载音乐内容并保存所述音乐内容来产生光盘20RD。
如图7和8中所示,利用记录/重放设备,用户能够任意修改保存在存储介质中的属性信息At。属性信息的修改包括现有属性信息的重写、添加、删除和/或用新的属性信息代替现有属性信息。例如,为了把表示音乐组成元素的边界的信息添加到属性信息中,记录/重放设备可自动分析感兴趣的音乐内容数据,并自动产生表示音乐组成元素的边界的信息,或者可按照用户通过用户接口11输入的命令,添加表示边界的信息。
按照用户通过用户接口11输入的修改命令,保存在音乐内容存储单元20中的属性信息可被修改。类似地,按照用户通过用户接口11输入的命令,保存在音乐内容存储单元20中的属性信息可被删除,或者由新产生的属性信息或所获得的属性信息代替。
用于上述用途的新的属性信息可通过因特网5和通信接口14获得,或者可通过诸如USB(通用串行总线)接口之类的数字接口,从诸如另一记录/重放设备的外部设备提供。作为选择,新的属性信息可通过无线LAN、无线接口和发射/接收天线获得,可用于添加或替换。
在任何情况下,通过音乐内容的标识符,音乐内容数据和属性信息彼此关联,以便明确地识别哪条属性信息对应于哪个音乐内容数据。
通过连同其属性信息一起提供音乐内容,能够根据属性信息有效地使用音乐内容数据。
为了把音乐内容数据连同对应的属性信息一起保存在光盘驱动器16可读的光盘7上,可按照和图8中所示的光盘20RD类似的方式保存音乐内容数据和属性信息。
下面参考附图说明由按照图1中所示的第一实施例的记录/重放设备执行的存储处理的例子。图9是示出在按照本实施例的记录/重放设备中与存储处理相关的部件的功能框图。图10和11是示出存储处理的例子的流程图。
如图9中所示,记录/重放设备包括两个与存储处理相关的主要功能部件。其中一个是保存多个音乐内容的音乐内容存储单元20,另一个是适合于执行保存音乐内容的操作的记录处理单元100。上面已说明了音乐内容存储单元20,因此这里省略对其的进一步说明。记录处理单元100被配置成保存音乐内容数据和相关的属性信息。下面说明记录处理单元100的结构。
在本例中,记录处理单元100把所输入的音乐内容数据(音频/视频数据)和其属性信息相互关联地保存在音乐内容存储单元20中。在该存储处理中,当通过输入给出与音乐内容关联的属性信息时,所输入的属性信息可被直接保存在音乐内容存储单元20的属性信息存储单元22中,或者可在进行部分修改或添加之后被保存在所述属性信息存储单元22中。
当音乐内容不具有最初附属于其的属性信息时,记录/重放设备中的记录处理单元100可产生属性信息,并将其保存在音乐内容存储单元20的属性信息存储单元22中。
在本实施例中,尽管一部分的属性信息可由记录/重放设备根据原始的音频/视频数据自动产生但分配给音乐内容数据的属性信息基本上由用户定义。例如,包括在属性信息的音乐构成信息中的速度信息,包括表示记录/重放设备的位置的信息的环境信息等可被自动确定和添加。但是,在本实施例中,记录/重放设备只是获得音乐构成信息和环境信息,用户希望最终确定感兴趣的音乐内容的最佳属性信息。
在音乐内容信息不具有最初附属于其的属性信息的情况下,当保存音乐内容信息时,用户难以产生编排信息。从而,在这种情况下,在保存音乐内容信息的时候没有保存任何编排信息,但在本实施例中,在结束保存音乐内容之后,保存编排信息。更具体地说,在已保存音乐内容之后,当用户在参考与保存在音乐内容存储单元20的属性信息存储单元22中的原始音乐相关的和弦的顺序变化,鼓方面的信息,和/或其它各种音乐构成信息的同时产生编排信息的时候,或者当用户通过因特网获得与音乐内容相关的编排信息时,所述编排信息与对应的音乐ID相关联地被保存在属性信息存储单元22中。
如图9中所示,记录处理单元100包括上面说明的用户接口11、音乐风格/结构分析器13、重放历史信息存储单元15和环境信息获取单元40。记录处理单元100还具有功能处理单元,其包括音乐内容记录控制器101、音乐内容数据存储单元102、音频/视频数据设置/记录单元103、属性信息设置/记录单元104、编码器105和音乐构成信息获取单元106。
音乐内容记录控制器101被配置成按照用户通过用户接口11发出的命令,控制保存音乐内容的操作。通过使用RAM4作为工作区,执行保存在ROM3中的存储程序,由CPU1实现音乐内容记录控制器101。
音乐内容数据存储单元102是适合于保存待记录的音乐内容的音频/视频数据的部分。当存在与音乐内容关联的属性信息时,属性信息也被保存在音乐内容数据存储单元102中。
当待记录的音乐内容从可由光盘驱动器16读取的光盘7提供时,音乐内容数据保持单元102由光盘7和光盘驱动器16实现。
在通过因特网5从音乐内容提供服务器6提供待记录的音乐内容的情况下,音乐内容数据存储单元102由适合于临时保存经通信接口14获得的音乐内容数据的缓冲存储器等实现。
编码器105是编/解码器12的编码器部件。
音频/视频数据设置/记录单元103是适合于保存将被发送给编码器105的音频/视频数据的部件,由RAM 4的部分存储区实现。
属性信息设置/记录单元104是适合于保存将被发送给编码器105的属性信息数据的部件,并且也由RAM4的部分存储区实现。
音乐构成信息获取单元106是当音乐内容数据不具有附属于其的属性信息时,适合于获得与待记录的音乐内容对应的属性信息的功能部件。音乐构成信息获取单元106例如由适合于通过因特网访问属性信息提供服务器,通过音乐内容ID获得与音乐内容关联的属性信息的功能部件实现,或者由适合于从另一记录/重放设备获得与音乐内容关联的属性信息的功能部件实现。
下面参考图10和11中所示的流程图,说明存储处理。注意通过利用RAM4作为工作区,执行保存在ROM3中的程序,由CPU1执行图10和11中所示的一系列步骤。
在开始记录之前,通过把待记录的音乐数据保存在音乐内容数据存储单元102中,用户准备待记录的音乐数据。当属性信息附属于音乐内容数据时,与音乐内容关联的属性信息也被保存在音乐内容数据存储单元102中。音乐内容数据存储单元102通知音乐内容记录控制器101属性信息是否附属于待记录的音乐内容,使得音乐内容记录控制器101预先知道待记录的音乐内容是否具有附属于其的属性信息。
随后,如果用户通过用户接口11的操作单元输入记录命令,那么音乐内容记录控制器101检测记录指定的音乐的命令(图10中的步骤S31)。如果音乐内容记录控制器101检测到该记录命令,那么音乐内容记录控制器101判断所指定的音乐是否具有附属于其的属性信息(步骤S32)。如果判断为指定的音乐具有附属于其的属性信息,那么音乐内容记录控制器101向属性信息设置/记录单元104发送命令,以便记录与音乐内容关联的属性信息(步骤S33)。
音乐内容记录控制器101随后向音乐内容数据存储单元102发送命令,以便把保存在其中的指定音乐内容的音频/视频数据提供给音频/视频数据设置/记录单元103,并把关联的属性信息提供给属性信息设置/记录单元104(步骤S34)。如果音乐内容数据存储单元102接收到该命令,那么音乐内容数据存储单元102把指定的待记录音乐内容的音频/视频数据连同其音乐内容ID一起发送给音频/视频数据设置/记录单元103,音乐内容数据存储单元102把对应的属性信息连同音乐内容ID一起发送给属性信息设置/记录单元104。
如果属性信息设置/记录单元104从音乐内容数据存储单元102接收到属性信息(连同音乐内容ID),那么属性信息设置/记录单元104产生待记录的属性信息的暂定列表(步骤S35),并通过例如在用户接口11的显示器上显示所述暂定列表,向用户呈现所产生的属性信息的暂定列表(步骤S36)。
如果用户接收到待记录属性信息的暂定列表的表现,那么用户判断是否需要对属性信息进行修改或添加。如果判断是肯定的,那么用户在用户接口11的操作单元上进行必要的操作。另一方面,如果判断为既不需要修改也不需要添加,那么用户例如通过按下用户接口11上的“应用”键等,通知音乐内容记录控制器101属性信息既不需要修改也不需要添加。
音乐内容记录控制器101判断用户是否已发出对属性信息进行修改或添加的命令(步骤S37)。如果判断为接收到了该命令,那么音乐内容记录控制器101通知属性信息设置/记录单元104已接收到修改/添加命令。作为响应,属性信息设置/记录单元104按照通过用户接口11接收到的修改/添加命令,对属性信息进行修改或添加(步骤S38)。当对属性信息进行修改/添加时,可以进行编排信息的添加。
如果用户按下“应用”键,从而无任何修改/添加地接受属性信息,或者接受属性信息的修改/添加,那么音乐内容记录控制器101检测用户关于属性信息的决定(步骤S39),并命令编码器105从音频/视频数据设置/记录单元103接收音频/视频数据,和从属性信息设置/记录单元104接收属性信息,并对接收到的信息编码。响应接收到所述命令,编码器105接收音频/视频数据和属性信息,并把它们编码成将它们记录在音乐内容存储单元20中的格式(步骤S40)。
编码器105把编码的音频/视频数据保存到音频/视频数据存储单元21中,并把编码的属性信息保存到属性信息存储单元22中(步骤S41)。从而,结束存储处理。
另一方面,在步骤S32中判断为音乐内容不具有原始附属于其的属性信息的情况下,音乐内容记录控制器101向属性信息设置/记录单元104发送命令,以产生和记录音乐内容的属性信息(图11中的步骤S51)。
音乐内容记录控制器101还命令音乐内容数据存储单元102把待记录音乐内容的音频/视频数据发送给音频/视频数据设置/记录单元103和音乐风格/结构分析器13(步骤S52)。响应接收到该命令,音乐内容数据存储单元102把待记录的音乐内容的音频/视频数据连同其音乐内容ID一起发送给音频/视频数据设置/记录单元103,并把音乐内容的音频数据发送给音乐风格/结构分析器13。
如果音乐风格/结构分析器13从音乐内容数据存储单元102接收到音频数据,那么音乐风格/结构分析器13分析接收到的音频数据,以检测音乐构成信息,所述音乐构成信息包括以音乐组成元素为单位表示速度、音调和和弦的信息(步骤S53)。
如果属性信息设置/记录单元104从音乐内容记录控制器101接收到表示应产生属性信息的命令,那么属性信息设置/记录单元104判断指定音乐的重放历史是否被保存在重放历史信息存储单元15中。如果判断是肯定的,那么属性信息设置/记录单元104获得该重放历史,所述重放历史将被用作属性信息的一部分(步骤S54)。如果不存在重放历史信息,那么在属性信息中保存值为“空”的重放历史信息。
如果属性信息设置/记录单元104接收到用户通过用户接口11对于待记录的音乐输入的指示诸如欢快/忧郁印象、狂野/柔和印象、欢乐/悲伤印象等的印象的等级(例如,按16级数值的形式)的印象信息,那么属性信息设置/记录单元104把接收到的印象信息添加到属性信息中(步骤S55)。
属性信息设置/记录单元104从音乐风格/结构分析器13获得由音乐风格/结构分析器13检测到的音乐构成信息,并把所获得的音乐构成信息添加到属性信息中(步骤S56)。另外,属性信息设置/记录单元104从环境信息获取单元40获得环境信息,并把所获得的环境信息添加到属性信息中(步骤S57)。
随后,属性信息设置/记录单元104根据通过步骤S54-S57获得的信息,产生待记录的属性信息的暂定列表(步骤S58),并通过在用户接口11的显示器上显示所述暂定列表,向用户呈现产生的属性信息的暂定列表(步骤S36)。
如果用户接收到待记录属性信息的暂定列表的表现,那么用户判断是否需要对属性信息进行修改或添加。如果判断是肯定的,那么用户在用户接口11的操作单元上进行必要的操作。另一方面,如果判断为既不需要修改又不需要添加,那么用户例如通过按下用户接口11上的“应用”键等,通知音乐内容记录控制器101属性信息不需要修改和添加。
音乐内容记录控制器101判断用户是否发出了对属性信息进行修改或添加的命令(步骤S37)。如果判断为接收到了所述命令,那么音乐内容记录控制器101通知属性信息设置/记录单元104接收到了修改/添加命令。作为响应,属性信息设置/记录单元104按照通过用户接口11接收到的修改/添加命令,对属性信息进行修改或添加(步骤S38)。
如果用户按下“应用”键,从而无任何修改/添加地接受属性信息,或者接受属性信息的修改/添加,那么音乐内容记录控制器101检测用户关于属性信息的决定(步骤S39),并命令编码器105从音频/视频数据设置/记录单元103接收音频/视频数据,和从属性信息设置/记录单元104接收属性信息,并对接收到的数据编码。响应接收到所述命令,编码器105接收音频/视频数据和属性信息,并把它们编码成将它们记录到音乐内容存储单元20中的格式(步骤S40)。
编码器105把编码的音频/视频数据保存到音频/视频数据存储单元21中,把编码的属性信息保存到属性信息存储单元22中(步骤S41)。从而,结束存储处理。
在上面所述的实施例中,当音乐内容不具有作为部分属性信息的附属音乐构成信息时,音乐风格/结构分析器13检测音乐构成信息。然而,如果根据乐谱信息或制作人给出的信息知道音乐的音乐风格/结构,那么不需要进行音乐风格/结构分析,相反,用户可根据乐谱信息输入作为部分属性信息的音乐构成信息,所述音乐构成信息包括表示速度、音调和和弦等的信息。
在可通过诸如因特网5之类的网络获得音乐构成信息的情况下,属性信息设置/记录单元104可通过音乐构成信息获取单元106获得音乐构成信息,并把所获得的音乐构成信息添加到属性信息中。
在按照本实施例的记录/重放设备中,当反复进行音乐的重放时,用户的重放历史信息被累积在重放历史信息存储单元15中。通常,用户喜欢的音乐被经常重放,相反,偏爱度低的音乐不被经常播放。从而,每首音乐的重放频率或总的重放时间被更新并被保存在每首音乐的音乐内容的属性区中。
不仅当记录音乐内容时,而且当响应音乐的重放,更新保存在重放历史信息存储单元15中的重放历史时,作为部分属性信息保存在音乐内容存储单元20的属性信息存储单元22中的重放历史信息都被更新。
通常,偏爱程度高的音乐经常被重放,而偏爱程度低的音乐并不经常被重放。从而,根据重放历史能够检测收听者喜欢的音乐,并且能够确定收听者喜欢偏爱程度高的音乐的音乐风格/结构。鉴于上面所述,每当表示任意一首音乐的重放频率或总的重放时间的信息被更新时,保存在属性信息存储单元中的音乐的重放历史信息都被相应地更新,使得根据包括在属性信息中的重放历史信息和音乐构成信息,能够确定收听者喜欢哪首音乐或者哪种音乐风格,并且当播放音乐时,能够根据收听者在音乐风格方面的偏爱来重构音乐。
按照第一实施例的记录/重放设备执行的重放处理
下面说明按照第一实施例的记录/重放设备执行的重放处理。按照本实施例的重放处理具有下述特征。
第一个特征是当开始重放操作时,被评价为用户喜欢的偏爱程度高的多首音乐被顺序选择并呈现给用户。在选择第一首音乐之后,如果用户通过用户接口11的操作单元输入连续重放开始命令,那么按照本实施例的记录/重放设备根据从用户(收听者)获得的生物信息,判断用户是否表现出对首先选择的音乐的偏爱。如果用户表现出一定的偏爱,那么记录/重放设备选择一首音乐风格/结构与首先选择的一首音乐类似的音乐,作为在当前音乐之后接下来播放的候选音乐。
更具体地说,获得正在收听音乐的用户的生物信息,并根据身体,比如用户的头和腿的运动,或者根据脉搏速度判断可随时间变化的用户的偏爱度。
如果判断为收听者当前未表示出对正在播放的音乐的偏爱,那么根据保存在重放历史信息存储单元15中的重放历史信息,选择预计收听者喜欢的另一首音乐,音乐风格/结构与所选音乐类似的音乐被用作在当前音乐之后接下来播放的候选音乐。作为选择,可获得与收听者关联的环境信息,并可根据属性信息搜索与所获得的环境信息相符的音乐。搜索中找到的多首音乐和音乐风格/结构与搜索中找到的音乐类似的多首音乐被用作在当前音乐之后接下来播放的候选音乐。
当播放第二首音乐或者接下来的多首音乐之一时,根据从收听者获得的生物信息连续监视对正在播放的音乐的偏爱,重复上面所述的处理,以更新接下来播放的候选音乐。从而,在本实施例中,待重放的候选音乐被实时更新,并被呈现给用户。
在传统的音乐重放设备中,当按照自动重放模式播放保存在内部存储单元中的多达数百条的音乐数据时,只是以唱片集为单位,或者按照与记录顺序相同的顺序,或者另外按照由随机数确定的随机顺序来执行重放,并不知道按照用户(收听者)对音乐的偏爱控制重放顺序。
已知由用户产生播放列表(待播放的候选音乐的列表),并按照播放列表顺序进行重放。但是,在这种技术中,用户不得不产生播放列表,这对用户来说这是费事的。该技术的另一个问题在于当保存在内部存储单元中的音乐的数目增大时,必须修改播放列表。注意即使在这种技术中,在重放顺序中也不一定考虑到用户对各首音乐的偏爱度。
相反,在本实施例中,根据用户的重放历史信息,从用户实时检测的生物信息,和/或表示重放设备的位置的地理信息,重放设备考虑当前正在播放的音乐的属性信息,预测各首音乐的偏爱度,并根据情况呈现预测为用户想要收听的音乐。
即,以如下方式来重放音乐内容:按照根据与各首音乐关联的属性信息,收听者的生物信息,重放历史信息,环境信息等变化条件/情况,动态选择可能最符合收听者的当前偏爱的候选音乐,并且重放选择的各首音乐的方式。
例如,根据保存在属性信息存储单元22中的与各首音乐关联的属性信息,搜索在和弦序列和/或速度方面与多次收听的音乐接近的多首音乐,并重放检测到的多首音乐。例如,在所获得的生物信息表示收听者因当前正在播放的音乐而放松的情况下,可根据属性信息搜索音乐结构与当前正在播放的那首音乐类似的多首音乐,并且可播放检测到的多首音乐。即,在本实施例中,根据音乐的属性信息动态选择可能最符合收听者的当前偏爱的多首音乐,并呈现所选择的多首音乐。
如上所述,在本实施例中,保存的属性信息包括表示收听者对每首音乐的印象或感觉(例如忧郁/欢快感觉)的印象信息,表示每首音乐被重放多少次的重放历史信息,表示表演者和/或乐器的信息,诸如表示记录每首音乐的地方或者表示每首音乐的最佳收听位置的地理信息等环境信息。通过在重放中有效地利用这些种类的信息,能够从大量的音乐内容中更有效地选择符合用户的偏爱的音乐内容。
按照本实施例的记录/重放设备执行的重放处理的第二个特征在于其编排模式。在编排模式下,允许修改或重构(即编排)当前正在重放的一首音乐,使得按照属性信息,特别是按照音乐构成信息和/或编排信息,以音乐组成元素为单位改变速度和/或音调,进行重混,和/或应用音效。
在本实施例中,可按照用户的选择,以自动模式或手动模式执行编排模式。用户可通过用户接口11,例如通过从菜单中选择“设置”,进一步选择编排模式的设置,最后选择自动模式或手动模式,来执行与编排模式关联的设置。
在本实施例中,当在编排模式下选择自动模式时,音乐内容记录/重放设备通过生物信息获取单元30检测收听者的生物信息,并根据收听者的感觉动态地自动重构正在重放的音乐。例如,按照和电台节目主持人类似的方式对音乐数据进行重混,同时播放多首音乐,和/或通过改变例如速度和/或音调,来改变音乐风格/结构。
在本实施例中,为了实现动态重构,为每首音乐定义包括如上所述的音乐构成信息的属性信息,并在以最符合收听者所处的环境/状态的方式动态重构或混合音乐的时候进行重放。注意重构的目的是把重放的音乐变成收听者更喜爱的形式。因此,按照本实施例的编排模式提供一种新的方式,按照该方式,用户能够喜欢收听音乐。
注意按照上述方式利用属性信息的重构使得能够在不损害原始音乐质量的情况下编排音乐。一般来说,音乐由多个元素,比如小节或节拍组成,为每个元素定义一个和弦。按照音乐理论,通过以小节为单位将另一音乐素材与原始音乐混合,能够在不损害原始音乐质量的情况下改变音乐的风格。这种技术被电台节目主持人广泛采用,一般被称为重混。
在本实施例中,鉴于上面所述,重构所必需的音乐构成信息被预先定义并被保存为与每个音乐内容的音频/视频数据关联的属性信息的一部分。如上所述,重构所必需的音乐构成信息包括表示每个音乐组成元素的速度、音调、和弦、音量、节奏等的信息。
注意属性信息不一定总必须附属对应的音乐内容的音频/视频数据,相反,可根据需要按照音乐内容的标识信息从存储区读取属性信息,并可通过网络从服务器等获得属性信息。
注意在本实施例中,利用音乐构成信息的自动重构不是按照不合理的方式,而是按照适当的方式进行的。例如,根据从用户提供给重放设备的生物信息,动态检测用户的收听状态,另外动态检测表示记录/重放设备所处位置的状态的环境信息,从而按照属性信息把音乐重构成最符合当前情况的形式,并将其呈现给收听者。
在如上所述的第一实施例中,只有当收听者表现出对当前一首音乐的一定偏爱时,才进行重构,从而以预期更取悦于收听者的形式呈现该音乐。但是,即使当收听者表现对当前一首音乐没有任何兴趣时,也可进行自动重构,从而以预期收听者会喜欢的形式呈现该音乐。
当自动重构正在播放的一首音乐时,可按照诸如收听者反馈给重放设备的生物信息、重放历史信息、和/或环境信息之类的信息选择将与当前播放的音乐混合的音乐和/或确定将应用的效果。当属性信息包括表示推荐效果的效果信息时,可对正在播放的音乐应用该推荐效果。
在本实施例中,当在编排模式下选择手动模式时,如果用户通过用户接口11发出编排请求命令,那么音乐内容记录/重放设备通过按照包括在与一首音乐关联的属性信息中的编排信息和音乐构成信息,以音乐组成元素为单位进行重构,比如改变速度或音调(音程),重混,和/或应用音效,来编排该首音乐。
图12示出用户接口11的例子,用户接口11包括用于编排模式下的手动模式的LCD显示屏。更具体地说,图12(A)和12(B)示出操作面板,所述操作面板是按照本实施例的音乐内容记录/重放设备的用户接口11的一部分。
当选择手动模式时,如果从显示在LCD屏幕上的菜单中选择编排模式,那么按照本实施例的音乐内容记录/重放设备从与当前正在播放的一首音乐关联的属性信息中提取编排信息(参见图2和3),并在LCD显示屏111上显示从属性信息提取的编排信息的列表,如图12(A)中所示。
用户通过操作十字按钮112指定该列表中的编排信息之一,从显示在LCD显示屏111上的编排信息列表中选择编排信息之一。在图12中所示的该具体例子中,用户操作十字按钮112中的向上箭头部分或向下箭头部分来选择列表中的项目。在该例子中,用阴影突出显示所选择的项目。在指定列表中的一个项目的状态下,如果按下十字按钮112的中心的应用按钮,那么指定的项目被最终选择。
如图12(A)中所示,在指定(1)经典风格的状态下,当按下应用按钮时,如果所选择的编排模式包括子编排模式,那么子编排模式的列表被显示在LCD显示屏111上,如图12(B)中所示。
用户利用十字按钮112从该列表中选择所希望的子编排模式。如果指定的编排模式被最终选择,那么从属性信息存储单元22读取对应的编排信息,并通过按照上述方式进行音乐重构处理,按照该编排信息编排音乐数据。
下面参考附图更详细地说明重放操作的一个例子。图13是示出按照第一实施例的记录/重放设备中与重放处理关联的部件的功能框图。图14-21是说明音乐重构处理的示图。图22-25是示出重放处理的例子的流程图。
如图13中所示,和上面说明的记录处理单元一样,按照第一实施例的记录/重放设备的重放处理单元包括两个主要部件。一个是保存多个音乐内容的音乐内容存储单元20,另一个是适合于重放音乐内容的重放单元200。音乐内容存储单元20与上面所述的音乐内容存储单元相同,因此在下面只说明重放单元200。
如图13中所示,重放单元200包括用户接口11、重放历史信息存储单元15、生物信息获取单元30、环境信息获取单元40、音频输出单元53和视频输出单元56。重放单元200还包括通过由CPU1按照保存在ROM3中的程序执行的处理而实现的功能处理单元。所述功能处理单元是音频/视频数据选择控制器201、解码单元202、属性信息获取单元203、音频/视频数据获取单元204、音频/视频数据解码器205和音频/视频编排处理单元206。
音频/视频数据选择控制器201执行各种处理,包括按照用户通过用户接口11发出的命令,选择待播放的音乐内容,控制播放所选择的音乐内容的处理(包括按照用户发出的命令,自动编排模式下的音乐重构处理或手动编排模式下的音乐重构处理),按照从重放历史信息存储单元15提供的重放历史信息,通过生物信息获取单元30获得的生物信息,通过环境信息获取单元40获得的环境信息等,选择待播放的音乐内容,并控制所选择的音乐内容的处理(包括音乐重构处理)。通过利用RAM4作为工作区,执行保存在ROM3中的存储程序,由CPU1实现音频/视频数据选择控制器201。
按照从音频/视频数据选择控制器201提供的音乐内容选择命令,解码单元202从音乐内容存储单元20获得音频/视频数据和属性信息,并把接收到的压缩数据解码成解压缩形式。注意解码单元202是编/解码器12的解码器部分。
更具体地说,解码单元202把从音乐内容存储单元20读取的属性信息解码成解压缩形式,并把所得到的属性信息提供给属性信息获取单元203。解码单元还把从音乐内容存储单元20读取的音频/视频数据解码成解压缩形式,并把所得到的音频/视频数据提供给音频/视频数据获取单元204。
属性信息获取单元203从解码单元202接收从音乐内容存储单元20读取并由解码单元202解码的属性信息,并把属性信息传送给音频/视频数据选择控制器201。属性信息获取单元203由通过使用RAM4的部分存储区实现的缓冲器来实现。
音频/视频数据获取单元204从解码单元202接收从音乐内容存储单元20读取并由解码单元202解码的音频/视频数据,并把音频/视频数据传送给音频/视频数据解码器205。音频/视频数据获取单元204由通过使用RAM4的部分存储区实现的缓冲器来实现。
音频/视频数据解码器205包括音频数据解码器51和视频数据解码器54,并被配置成对音频数据和视频数据解码,并把所得到的音频数据和视频数据分别提供给音频/视频编排处理单元206。
音频/视频编排处理单元206包括音频编排单元52和视频编排单元55,并被配置成执行下述处理,即,按照从音频/视频数据选择控制器201提供的控制信号,将另一首乐曲的音频数据与解码的音频数据重混,通过对音乐的音频数据应用效果,或者通过改变速度、音调和/或和弦序列,重构一首音乐,对解码的视频数据应用效果等等。
在音频/视频编排处理单元206进行诸如重混或效果的应用之类处理之后,所得到的音频数据被提供给音频输出单元53,而所得到的视频数据被提供给视频输出单元56。
由生物信息获取单元30获得的收听者的生物信息被提供给音频/视频数据选择控制器201,并被用于音乐内容的选择和重构。环境信息获取单元40获得的包括表示记录/重放设备的位置的信息的环境信息被提供给音频/视频数据选择控制器201,以用于音乐内容的选择和音乐的重构。
如果重放历史信息存储单元15从音频/视频数据选择控制器201收到读取请求,那么重放历史信息存储单元15把保存在其中的重放历史信息提供给音频/视频数据选择控制器201。音频/视频数据选择控制器201把重放历史信息用于音乐内容的选择和音乐的重构。
图14示出从重构音乐的处理的观点表达的,图13中所示的重放单元200的功能框图。注意尽管是从不同的观点来看图14和图13的,但是图14中所示的结构本质上与图13中所示的相同。
如图14中所示,重放单元200包括主节奏单元210和从属节奏单元220。主节奏单元210适合于产生按照其重构音乐数据的同步信号和音乐重构信息,并输出它们。从属节奏单元220适合于按照从主节奏单元210提供的同步信号SYNC和音乐重构信息ARI,重构音乐数据。主节奏单元210与音乐数据的重放同步地输出同步信号SYNC。音乐重构信息ARI与同步信号SYNC同步地被输出,并且音乐重构信息ARI具有与音乐数据的重放同步地动态变化的值。
主节奏单元210具有与音乐会中的指挥对应的功能,而从属节奏单元220具有与表演者对应的功能。
音频/视频数据选择控制器201具有两个主要部件。一个是属于主节奏单元210的音频/视频数据选择控制单元RM(RM是“RhythmMaster”的缩写)201M。另一个是属于从属节奏单元220的音频/视频数据选择控制单元RS(RS是“Rhythm Slave”的缩写)201S。注意属性信息获取单元203既属于主节奏单元210又属于从属节奏单元220。
即,主节奏单元210包括音频/视频数据选择控制RM单元(下面简称为RM单元)201M和属性信息获取单元203。
除了音频/视频数据选择控制RS单元(下面简称为RS单元)201S和属性信息获取单元203,从属节奏单元220还包括生物信息获取单元30,环境信息获取单元40,重放历史信息存储单元15,音频/视频数据获取单元204,音频/视频数据解码器205和音频/视频编排处理单元206。
在该第一实施例中,根据由属性信息获取单元203获得的当前正被播放的音乐内容的属性信息,主节奏单元210的RM单元201M产生用于音乐的重构的同步信号SYNC和音乐构成数据ARI。所产生的同步信号SYNC和音乐构成数据ARI被提供给从属节奏单元220的RS单元201S。
在本实施例中,如图15中所示,产生并输出同步信号,所述同步信号包括与音乐的小节对应的小节同步信号PHSY,和周期与音乐的节拍周期对应的节拍同步信号BTSY。更具体地说,在该第一实施例中,RM单元201M产生与正在播放的音乐的小节和节拍同步的信号。
小节同步信号PHSY是表示音乐的每个小节的起点的信号。例如,小节同步信号PHSY采取在音乐的每个小节的起点处边缘脉冲下降的形式。节拍同步信号BTSY是表示音乐的每个节拍的开始的信号。例如,节拍同步信号BTSY采取在每个节拍的起点处边缘脉冲下降的形式。注意每个小节的拍数随音乐的节奏而变化。
与上面说明的信号同步,主节奏单元210把音乐重构数据ARI发送给从属节奏单元220。音乐重构数据ARI是多级数据,通过诸如数据总线之类的多位信号线传送。
在该第一实施例中,如图15中所示,RM单元201M产生的音乐重构数据ARI包括作为音乐构成信息的BPM值、音调值和和弦值。这三个值被提供给从属节奏单元220的RS单元201S。这三个值的数据可通过多位信号线传送,或者可通过单信号线以串行数据的形式传送。
在从属节奏单元220中,BPM值被用作表示速度的主速度值,音乐应以该速度被播放。注意,BPM值对应于同步信号SYNC的振荡频率。
音调值是按照其确定待播放的音乐内容的音调的值。当没有指定特定音调时,音调值可以是“空”值。当包括在音乐重构数据ARI中的音调值为“空”时,从属节奏单元220以任意选择的音调播放指定的音乐。
和弦值是确定待播放的音乐内容中和弦的顺序变化的值。从属节奏单元220可以以指定的和弦值或者以替代和弦来播放指定的音乐,只要保持和音乐理论相符的音乐的调性即可。和弦值可被设为“空”。当包括在音乐重构数据ARI中的和弦值为“空”时,从属节奏单元220以任意选择的和弦播放指定的音乐。
在该第一实施例中,从正被播放的音乐的属性信息提取的BPM值、音调值和和弦值被直接从RM单元201M提供给音乐重构信息ARI。
图16是示出按照第一实施例的主节奏单元210的细节的框图。在该图中,特别表示了RM单元201M的功能的细节。如图16中所示,RM单元201M的功能块包括属性信息分析单元211、同步信号发生器212、同步信号输出电路213、音乐重构数据设置单元214和音乐重构数据输出电路215。
在RM单元201M中,属性信息分析单元211从属性信息获取单元203接收与正被播放并且将被重构的音乐关联的属性信息,并分析所接收的属性信息,从而从与正在播放的音乐关联的属性信息中提取音乐构成信息。在包括在已提取的音乐构成信息中的多条信息中,用于表示小节或节拍的边界的速度信息的BPM值被提供给同步信号发生器212。
同步信号发生器212包括PLL(锁相环)电路216,PLL电路以和从属性信息分析单元211提供的BPM值对应的振荡频率振荡。利用该PLL电路216,产生包括与正在播放的音乐内容的小节同步的小节同步信号PHSY和与节拍同步的节拍同步信号BTSY的同步信号SYNC,并通过同步信号输出电路213,把所产生的同步信号SYNC提供给RS单元201S,如图15中所示。
如果RM单元201M中的属性信息分析单元211接收到与正在播放的音乐关联的属性信息,那么属性信息分析单元211提取包括在属性信息的音乐构成信息中的BPM值、音调值和和弦值,并把所提取的值提供给音乐重构数据设置单元214。
在音乐重构数据设置单元214中,在BPM值设置单元217中设置接收到的BPM值,在音调值设置单元218中设置接收到的音调值,在和弦值设置单元219中设置接收到的和弦值。将分别在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置的BPM值、音调值和和弦值从音乐重构数据设置单元214传送到音乐重构数据输出电路215,并进一步作为音乐重构数据ARI从音乐重构数据输出电路215传送到RS单元201S,如图15中所示。
RM单元201M根据从属性信息获取单元203提供的属性信息,与音乐内容的音乐数据的重放同步地实时产生同步信号SYNC和音乐重构数据ARI,并把所产生的同步信号SYNC和音乐重构数据ARI提供给从属节奏单元220中的RS单元。
图17示出按照第一实施例的从属节奏单元220的细节。如图17中所示,从属节奏单元220的RS单元201S的功能块包括编排控制单元221、速度校正量计算单元222和音程校正量计算单元223。从属节奏单元220中的音频/视频编排处理单元206包括速度校正电路225、音程校正电路226、混合器、和效果电路227。
编排控制单元221通过属性信息获取单元203,预先从音乐内容存储单元20中的属性信息存储单元22获得所有音乐内容的属性信息,编排控制单元221根据所获得的属性信息产生音乐重构属性信息表224,并保存所述音乐重构属性信息表224。在音乐重构属性信息表224中,描述音乐重构属性信息,所述音乐重构属性信息用于按照生物信息,环境信息和重放历史信息自动编排音乐。此外,在音乐重构属性信息表224中还描述根据包括在属性信息中的编排信息产生的,并且用于按照用户发出的编排请求命令重构音乐的音乐重构属性信息。后一音乐重构属性信息是如上所述按照其把音乐编排成由用户指定的音乐风格(例如古典风格,pop风格、摇滚风格、黑人灵歌风格、民歌风格等)的信息。
图18示出音乐重构属性信息表224的一部分的例子。在图18中所示的例子中,举例来说,音乐重构属性信息表224采取用于作为按照本实施例的重构处理执行的重混的属性信息表的形式。如图18中所示,音乐重构属性信息表224包括其中对于各个音乐素材描述和弦值、BPM值、乐器名称和印象值的字段。尽管在本例中,只在欢快印象方面定义印象值,不过可为其它各种印象定义印象值。
当作为音乐的编排进行重混时,对于待重混的各个乐器,编排控制单元221搜索音乐重构属性信息表224,以检测BPM值和和弦值与在从RM单元201M接收到的音乐重构数据ARI中描述的BPM值和和弦值相同或相近的音乐素材。
编排控制单元221根据从生物信息获取单元30提供的生物信息,从环境信息获取单元40提供的环境信息,和从重放历史信息存储单元15提供的重放历史信息,判断收听者是否喜欢欢快感觉,编排控制单元221按照在音乐重构属性信息表中描述的印象值,选择待重混的音乐素材。
在编排控制单元221接收到用户经用户接口11发出的编排请求命令的情况下,如果需要重混作为编排处理,那么编排控制单元221按照编排信息确定待重混的音乐素材。
编排控制单元221随后向解码单元202发送选择命令,以便从音乐内容存储单元20读取所确定的音乐素材的音频数据。
按照接收到的命令,解码单元202从音乐内容存储单元20读取指定的音乐素材的音频数据,并把用于重混的音乐素材的音频数据连同已读取的音频/视频数据一起传送给音频/视频数据获取单元204。
从而,除了待重放的音频/视频数据之外,音频/视频数据获取单元204还把用于重混的一个或多个音乐素材的音频数据提供给音频/视频数据解码器205。
因此,音频/视频数据解码器205和音频/视频编排处理单元206并行处理多个音频/视频数据。更具体地说,如图17中所示,按照并行处理多个音频/视频数据的需要,提供一样多的音频/视频数据解码器205和音频/视频编排处理单元206中一样多的速度校正电路225和音程校正电路226(在图17中所示的例子中,提供两组这样的单元)。
图19示出与从主节奏单元210提供的同步信号SYNC同步地在从属节奏单元220中的音频/视频数据解码器205和音频/视频编排处理单元206中传送的音乐信号。下面,音乐数据(音频数据)的每个重放信号流被称为“音轨”。如上所述,在从属节奏单元220中,根据需要多个音轨在速度校正、音程校正方面被并行处理,并最终由混合器和效果电路227混合在一起。
在图19中所示的例子中,从音频/视频数据解码器205输出的三个音轨与从主节奏单元210输出的同步信号SYNC同步地被播放,并在最后一级被混合在一起。在该例中,音轨1是待重放的原始音乐内容的音乐数据的音轨,音轨2和3是待重混的音乐素材的音轨。
注意,不一定要求在所有小节内提供待重混的音乐素材,相反可以只为特定的小节或节拍间歇地提供待重混的音乐素材,图19中所示的音轨2和音轨3就是这样。
在只对待播放的音乐内容的音乐数据应用音效而不进行重混情况下,只提供待播放的音乐内容的音乐数据流,混合器和效果电路227执行音效处理,以便对待播放的音乐内容的音乐数据应用例如回响或失真。
根据从属性信息获取单元203获得的BPM值和包括在从主节奏单元210提供的音乐重构数据ARI中的BPM值(目标BPM值)之间的差异,速度校正量计算单元222计算将应用于要与当前正在播放的音乐混合的音乐素材的速度校正量。由于具有正确音调值和和弦值,并且希望与正在播放的音乐数据混合的指定音乐素材的BPM值不一定总是等于目标BPM值,从而需要把BPM值校正为目标BPM值,因此需要这种校正。
速度校正量计算单元222把计算出的速度校正量提供给速度校正电路225中负责处理对应的音乐素材的处理电路。
速度校正电路225是适合于只校正指定音频数据的重放速度,同时保持原始音程的电路。用于上述目的的各种校正算法是已知的。例如,已知利用相关函数进行校正。校正算法不是本实施例的本质特征,因此这里省略对其的进一步说明。
根据从属性信息获取单元203获得的音调/和弦值与包括在从主节奏单元210提供的音乐重构数据ARI中的音调/和弦值(目标音调/和弦值)之间的差异,音程校正量计算单元223计算将与当前播放的音乐数据混合的每个音乐素材的音程校正量。由于希望与当前正在播放的一首音乐混合的音乐素材的音调值或和弦值不一定等于目标音调值或目标和弦值,从而需要把音调值或和弦值校正为目标值,因此需要这种校正。
音程校正量计算单元223把计算出的音程校正量提供给音程校正电路226中负责处理对应的音乐素材的处理电路。
音程校正电路226是适合于只校正指定音频数据的音程,同时保持速度的电路。用于上述目的的各种校正算法是已知的。校正算法不是本实施例的本质特征,因此这里省略对其的进一步说明。
混合器/效果电路227按照从编排控制单元221提供的混合控制信号和效果控制信号进行工作,从而对从音程校正电路226提供的音频/视频数据应用效果,并混合从音程校正电路226提供的多个音频/视频数据。注意根据从编排控制单元221提供的效果控制信号,以各种方式应用效果。
图20示出在由从属节奏单元220中的音频/视频编排处理单元206按照从主节奏单元210输出的音乐重构数据ARI进行的音乐数据重构处理期间,在从属节奏单元220中的音频/视频数据解码器205和音频/视频编排处理单元206中,与从主节奏单元210输出的同步信号SYNC同步地传送的音乐信号。
在图20中所示的例子中,从与待播放的音乐内容关联的属性信息中提取音乐重构数据ARI,待播放的音乐内容是以音轨1中的重放信号流的形式给出的。在图20中所示的例子中,表示目标BPM值“120”、目标音调值“C大调”和目标和弦值的序列“C”→“G”→“F”的音乐重构数据ARI从主节奏单元210输入到从属节奏单元220。
从属节奏单元220按照从编排控制单元221提供的选择命令,处理音轨1中的音乐内容的重放信号流,使得从音乐内容存储单元20获得并且从音频/视频数据解码器205输出的音轨2和3中的两个音乐素材数据被校正,从而等于音乐重构数据ARI指定的目标值,随后音轨1、2和3中的数据被混合在一起。
更具体地说,在音频/视频编排处理单元206中,音轨2和3中的音频数据被校正,以便与音乐重构数据ARI指定的目标BPM值和目标和弦值一致,并与音轨1中的音乐数据混合。
在图20中所示的例子中,在小节段Pa中,音轨3中的音乐素材3与音轨1中的音频数据混合。注意在小节段Pa中,通过属性信息获取单元203获得的音乐素材数据3的BPM值为“120”,其等于由音乐重构数据ARI指定的目标BPM值,从而,音频/视频编排处理单元206不校正在该小节段Pa中的音乐素材数据3的速度。
另一方面,在小节段Pa中,通过属性信息获取单元203获得的音乐素材数据3的和弦值为“D”,其不同于音乐重构数据ARI中指定为目标值的和弦值“C”,从而,音频/视频编排处理单元206的音程校正电路226在音程方面校正音乐素材数据3,使得和弦值从“D”变成目标和弦值“C”。
在下一小节段Pb的前半部中,音轨2中的音乐素材数据2与音轨1中的音频数据混合。在小节段Pb的后半部中,音轨2中的音乐素材数据2和音轨3中的音乐素材数据3与音轨1中的音乐数据混合。
在上面的处理中,在小节段Pb的前半部中,由属性信息获取单元203所获得的音乐素材数据2的BPM值为“100”,和弦值为“E”,它们不同于在音乐重构数据ARI中指定的目标BPM值“120”和目标和弦值“G”。因此,在小节段Pb的前半部中,音频/视频编排处理单元206把音乐素材数据2的BPM值从“100”校正为目标值“120”,从而校正速度,音频/视频编排处理单元206校正音程,使得和弦从“E”校正为目标和弦值“G”。在小节段Pb的后半部中,校正后的音乐素材数据2被添加到音轨1中的音乐数据中。
在小节段Pb的后半部中,音乐素材数据2的BPM值为“100”,和弦值为“E”,它们不同于在音乐重构数据ARI中指定的目标BPM值“120”和目标和弦值“F”,而音乐素材数据3的BPM值为“120”,和弦值为“F”,它们与在音乐重构数据ARI中指定的目标BPM值“120”和目标和弦值“F”相同。
因此,在小节段Pb的后半部中,音轨2中的音乐素材数据2在速度和音程方面由音频/视频编排处理单元206校正,并且将校正后的数据添加到音轨1中的音乐数据中,而音轨3中的音乐素材数据3未经校正地而直接添加到音轨1中的音乐数据中。
如上所述,在该第一实施例中,当给出待播放的音乐内容时,为了与该音乐内容同步而产生的同步信号SYNC和根据音乐内容的音乐重构信息产生的音乐重构数据ARI,使音乐素材与原始的音乐内容混合,从而获得音乐上自然的混合数据。
同步信号SYNC的提供使得易于检测小节或节拍的边界。这使得能够容易地对音乐数据应用效果。
上面描述的编排处理可实时地动态进行。例如,易于在快速响应时变生物信息的同时,改变编排风格。
在本实施例中,作为重混模式之一,提供循环重放模式。在循环重放模式中,长度为一个或几个小节或者一个或几个节拍的少量音乐素材数据被反复重放。循环重放模式使得通过利用少量的音乐素材数据,能够无休止地播放音乐。例如,当鼓等的节奏模式被反复播放时,循环重放模式是有用的。
例如,对于给出的如图21(C)中所示的原始音乐素材数据,在该音乐素材数据中定义表示循环的起点的标记In和表示循环的终点的标记Out。可将多个原始音乐素材保存在音乐内容存储单元20的属性信息存储单元22中的“DJ循环信息存储单元”中。代替属性信息存储单元22,可在另一存储区中实现“DJ循环信息存储单元”,并且可将原始音乐素材保存在其中。
如果通过用户接口11选择多个原始音乐素材之一,并发出循环重放命令,那么从属性信息存储单元22读取指定的原始音乐素材信息,并将其提供给从属节奏单元220的音频/视频数据解码器205。按照所提供的音乐素材信息,音频/视频数据解码器205和音频/视频编排处理单元206执行循环重放处理,同时根据需要校正速度和音程。
在上述处理中,更具体地说,如图21(B)中所示,与同步信号SYNC的小节同步信号PHSY或节拍同步信号BTSY(图21(A))同步,音频/视频数据解码器205和音频/视频编排处理单元206从指定音轨中的标记IN开始播放原始音乐素材。如果到达标记OUT,那么重放位置从标记OUT返回标记IN,并继续循环重放。注意只有当到达标记OUT时才发生从标记OUT到标记IN的跳转。
注意不仅进行循环重放的音轨,而且所有音轨都与同步信号SYNC同步,从而以音乐上自然的方式进行DJ循环重放。
下面参考图22-24中所示的流程图,进一步说明重放处理。注意,CPU 1通过利用RAM 4作为工作区执行保存在ROM3中的程序,来执行图22、23和24中所示的步骤。
首先,用户从显示在用户接口11的显示屏上的音乐内容选择菜单选择所希望的音乐内容(所希望的一首音乐),并向音频/视频数据选择控制器201发出开始播放第一首音乐的命令。注意第二首和后续各首音乐被自动选择和播放。
如果音频/视频数据选择控制器201通过用户接口11接收到播放第一首音乐的命令,那么音频/视频数据选择控制器201识别待播放的音乐内容,并命令解码单元202从音乐内容存储单元20的属性信息存储单元22读取与指定播放的音乐内容关联的属性信息,以及所有或者特定数目的音乐内容的属性信息。按照该命令,解码单元202通过属性信息获取单元203把属性信息发送给音频/视频数据选择控制器201。音频/视频数据选择控制器201分析所接收到的属性信息(步骤S61)。
即,在对接下来播放的候选音乐内容的选择和当前正在播放的音乐内容的重构的准备中,音频/视频数据选择控制器201分析所获得的指定播放的音乐内容的属性信息,和其它音乐内容的属性信息。
随后,音频/视频数据选择控制器201命令解码单元202读取指定播放的音乐内容的音频/视频数据。作为响应,解码单元202从音乐内容存储单元20读取指定的音乐内容的音频/视频数据,并将其传送给音频/视频数据获取单元204。提供给音频/视频数据获取单元204的音频/视频数据被传送给音频/视频数据解码器205并被解码。所得到的解码数据经音频/视频编排处理单元206被提供给音频输出单元53,并且音频输出。解码数据还被提供给视频输出单元56,并按照该数据输出图像。从而开始重放(步骤S62)。
在本实施例中,如果开始音乐内容的重放,那么音频/视频数据选择控制器201确定以自动模式或手动模式来设置编排模式(步骤S63)。如果确定以自动模式设置编排模式,那么音频/视频数据选择控制器201从生物信息获取单元30获得收听者的生物信息,从环境信息获取单元40获得环境信息(步骤S64)。在进行重放的时候,继续生物信息和环境信息的获取。
根据通过生物信息获取单元30获得的收听者的生物信息,音频/视频数据选择控制器201判断收听者是否表现出对正在播放的音乐的偏爱(步骤S65)。
音频/视频数据选择控制器201根据由记录/重放设备的生物信息传感器31感测并由生物信息分析器32分析的、表示身体运动等的生物信息,判断收听者是否喜欢收听当前音乐。注意通常当收听者主动地欣赏音乐时,他/她会不知不觉地移动他/她的身体。
例如,通过计算正在播放的音乐的音乐构成信息(例如在音乐组成元素的边界或者速度方面)与从身体运动传感器(例如由加速度传感器实现)提供的输出信号之间的互相关函数,能够判断收听者是否正在主动地欣赏音乐。在该处理中,因为响应于狂野的音乐,身体运动往往又大又快,对于柔和的音乐,身体运动往往又慢又小,因此更希望考虑到包括在属性信息中的印象信息来进行所述判断。
相关系数越大,收听者就越主动地欣赏音乐,即,对于该音乐收听者就越兴奋。如果收听者主动地享受收听当前音乐的乐趣,那么希望在当前音乐之后,选择和呈现对收听者来说预期令人兴奋的一些音乐。
相反,如果收听者的运动又小又慢,并且脑电波表示收听者处于平静状态,则希望在当前音乐之后,选择并以低音量播放预期不令人兴奋的一些音乐,以便用户能够在平静的状态下欣赏音乐。
除了“兴奋”方面的印象信息之外,包含在与当前正在播放的音乐内容关联的属性信息中的、表示诸如“明快/忧郁印象”、“平和/狂野印象”、“悲伤/欢快印象”等其它印象项目的级别的印象信息可和收听者的生物信息一起用于确定用户对当前音乐的偏爱程度。例如,即使对于平和的音乐来说,兴奋程度较低时,如果脑电波或脉搏速度表示用户处于平静状态,那么用户对当前音乐的偏爱度也可能较高。
如果在步骤S65中判断为收听者对当前正在播放的音乐表现出没有兴趣时,音频/视频数据选择控制器201检查保存在重放历史信息保持单元15中的重放历史信息,或者包含在预先获得的与音乐内容关联的属性信息中的重放历史信息,来检测过去频繁播放的一些音乐(步骤S66)。
随后,音频/视频数据选择控制器201从与评估为重放频率较高的音乐关联的属性信息中提取音乐构成信息,并确定用户喜欢的音乐风格/结构。在该确定处理中,当找到重放频率较高并且音乐风格/结构相同的多首音乐时,确定用户喜欢该音乐风格/结构的音乐构成信息。另一方面,当找到重放频率较高但是音乐风格/结构不同的多首音乐时,确定用户喜欢重放频率较高,并且音乐风格/结构相同,并且音乐数目较多的一组的音乐风格/结构。
音频/视频数据选择控制器201选择音乐构成信息与确定为用户喜欢的音乐风格/结构的音乐构成信息类似的一些音乐,即,选择音乐风格/结构与确定为用户喜欢的音乐风格/结构类似的一些音乐,并把所选择的音乐确定为在当前音乐之后接下来播放的候选音乐(步骤S67)。即,在这种情况下,由于收听者对当前正在播放的音乐没有兴趣,因此根据收听者的重放历史选择收听者很可能想要的一些音乐,并将其呈现给收听者。
音频/视频数据选择控制器201监视是否已经到达当前正在播放的音乐的结尾(图23中的步骤S76)。如果判断为已到达该音乐的结尾,那么保存在重放历史信息保持单元15中的关于其重放已结束的该首音乐(音乐内容)的重放历史被更新,包括在与该音乐内容关联的属性信息中的重放历史信息也被更新(步骤S77)。
音频/视频数据选择控制器201从在步骤S67中确定的候选音乐中选择接下来要播放的音乐内容,并发出读取所选音乐内容的音频/视频数据和开始其重放的命令(步骤S78)。处理流程随后返回步骤S63,以重复从步骤S63开始的处理。
在步骤S76中判断为没有到达当前音乐的结尾的情况下,音频/视频数据选择控制器201判断收听者是否已经按下了设置在用户接口11的操作单元上的“下一首”按钮(步骤S79)。注意当收听者想要停止当前音乐的播放,并播放下一首音乐时,“下一首”按钮被按下。
如果在步骤S79中判断为“下一首”按钮被按下,那么在下一步骤S78中,音频/视频数据选择控制器201从在步骤S67中确定的候选音乐中选择接下来要播放的音乐内容,并发出读取所选音乐内容的音频/视频数据及开始其重放的命令。处理流程随后返回步骤S63,以重复从步骤S63开始的处理。
在步骤S79中判断为“下一首”按钮未被按下的情况下,音频/视频数据选择控制器201判断用户是否按下了置于用户接口11的操作单元上的“停止”按钮(步骤S80)。如果判断为“停止”按钮未被按下,那么处理流程返回步骤S76,以监视是否到达当前音乐的结尾。然而,如果判断为“停止”按钮已被按下,那么结束重放处理例程。
在步骤S65中判断为收听者对当前正在播放的音乐表现出一定的偏爱的情况下,音频/视频数据选择控制器201例如根据“兴奋等级”值等评估偏爱度(图23中的步骤S71)。
当判断为收听者对当前音乐的偏爱不是很高时,那么在本实施例中,音频/视频数据选择控制器201通过考虑从环境信息获取单元40获得的环境信息,评估音乐风格/结构与当前音乐的音乐风格/结构的相似性,确定将在当前音乐之后接下来播放的候选音乐(步骤S72)。更具体地说,首先选择属性信息中的音乐构成信息与包括在和当前正在播放的音乐关联的属性信息中的音乐构成信息类似的一些音乐。之后,根据从环境信息获取单元40获得的环境信息,确定收听者现在收听音乐的位置,比如山或海滩,并从所选择的这些音乐中,选择包括在属性信息中的环境信息指示当前收听地点与推荐的收听地点一致的音乐。所选择的音乐被确定为在当前音乐之后接下来播放的候选音乐。
在上面说明的步骤S72中,可以只根据环境信息,而不考虑在音乐风格/结构方面与当前音乐的相似性,确定接下来播放的候选音乐。除了上面所述的环境信息满足所要求环境条件的一些音乐之外,在音乐构成信息方面与当前音乐类似的一些音乐可被添加到将在当前音乐之后接下来播放的候选音乐中。
在步骤S71中判断为对当前音乐的偏爱度较高的情况下,音频/视频数据选择控制器201选择在音乐风格/结构方面与当前正在播放的音乐类似的一些音乐,并把所选择的音乐确定为将在当前音乐之后接下来播放的候选音乐(步骤S73)。更具体地说,选择包括在属性信息中的音乐构成信息和包括在与当前正在播放的音乐关联的属性信息中的音乐构成信息类似的一些音乐,所选择的音乐被确定为将在当前音乐之后接下来播放的候选音乐。
音频/视频数据选择控制器201随后从与当前正在播放的音乐关联的属性信息中提取表示音乐组成元素的边界的信息和表示每个音乐组成元素在速度、音调和和弦序列等方面的音乐结构的音乐构成信息(步骤S74)。按照所提取的表示音乐组成元素的边界的信息和每个音乐组成元素的音乐构成信息,该音乐的音频数据被重构成音乐上自然的形式(步骤S75)。在步骤S75中,视频数据也可进行重构,比如应用图像效果。
音频数据的重构并不局限于重混和效果应用,相反重构可包括速度的增大/降低,音调的提高/降低,改变和弦序列等等。
例如,可这样进行重混,使得从当前音乐之外的各首音乐中选择音乐构成信息与当前正在播放的音乐类似的一首或多首音乐,并且考虑音乐组成元素的边界,将所选择的一首或多首音乐与当前音乐混合成音乐上自然的形式。在该重混处理中,可在考虑包括在属性信息中的印象信息的情况下,确定将以音乐组成元素为单位重混的音乐的音乐数据。
鼓声节奏的滴答声(tick)数据和/或打击乐器部分的节奏模式数据被预先保存在记录/重放设备中,在相对于音乐组成元素的边界控制混合定时的同时,可与当前正在播放的音乐数据混合。
当音频/视频数据选择控制器201选择一首将与当前音乐混合的音乐时,音频/视频数据选择控制器201可通过按照包括在属性信息中的环境信息进行搜索,来选择与当前环境条件相符的音乐。
当与当前正在播放的音乐关联的属性信息包括推荐的效果参数时,在控制相对于音乐组成元素的边界应用效果的定时的同时,可按照推荐的效果参数进行效果处理,从而获得音乐上自然的效果。
在步骤S63中判断为在编排模式下选择手动模式的情况下,音频/视频数据选择控制器201从生物信息获取单元30获得收听者的生物信息,并从环境信息获取单元40获得环境信息(步骤S91)。只要进行重放,就继续生物信息和环境信息的获取。
音频/视频数据选择控制器201根据通过生物信息获取单元30获得的收听者的生物信息,判断收听者是否对当前正在播放的音乐表现出一定的偏爱(步骤S92)。如果判断为收听者对当前正在播放的音乐显示为没有兴趣,那么处理流程跳到图22中的步骤S66,以执行步骤S66和后续步骤中的处理。
在步骤S92中判断为收听者对当前正在播放的音乐表现出一定的偏爱的情况下,音频/视频数据选择控制器201判断用户是否经用户接口11发出编排请求命令(步骤S93)。如果在步骤S93中判断为已经发出了编排请求命令,那么音频/视频数据选择控制器201通过按照从属性信息存储单元22提供的编排信息和其它必需信息来重构音乐数据,把音乐数据编排成用户想要的形式(步骤S94)。
音乐数据的重构导致正在播放的音乐的音乐风格/结构的变化。因此,音频/视频数据选择控制器201检查从生物信息获取单元30提供的收听者的生物信息,以判断收听者是否喜欢正在播放的按照重构的音乐数据音乐(步骤S95)。
在步骤S93中判断为没有检测到编排请求命令的情况下,音频/视频数据选择控制器201跳过步骤S94,处理流程进入步骤S95,以判断收听者是否对正在播放的音乐表现出一定的偏爱。
如果在步骤S95中判断为收听者对当前音乐的偏爱不是非常高,那么在本实施例中,音频/视频数据选择控制器201通过考虑从环境信息获取单元40获得的环境信息,评估在音乐风格/结构方面与当前音乐的相似性,来确定将在当前音乐之后接下来播放的候选音乐(步骤S96)。
更具体地说,首先,选择属性信息中的音乐构成信息和包括在与当前正在播放的音乐关联的属性信息中的音乐构成信息类似的一些音乐。之后,根据从环境信息获取单元40获得的环境信息,确定收听者正在收听音乐的位置,例如山或海滩,并从所选择的这些音乐中,选择包括在属性信息中的环境信息是示当前收听地点与推荐的收听地点一致的音乐。将所选择的音乐确定为在当前音乐之后接下来播放的候选音乐。
在上面说明的步骤S96中,可以只根据环境信息,而不考虑音乐风格/结构方面与当前音乐的相似性,确定接下来播放的候选音乐。除了上面说明的环境信息满足所需环境条件的一些音乐之外,在音乐构成信息方面与当前音乐类似的一些音乐可被添加到将在当前音乐之后接下来播放的候选音乐中。
在步骤S95中判断为用户对当前音乐的偏爱度较高的情况下,音频/视频数据选择控制器201选择在音乐风格/结构方面与当前正在播放的音乐类似的一些音乐,并把所选择的这些音乐确定为将在当前音乐之后接下来播放的候选音乐(步骤S97)。更具体地说,选择包括在属性信息中的音乐构成信息与包括在与当前正在播放的音乐关联的属性信息中的音乐构成信息类似的一些音乐,并将所选择的音乐确定为将在当前音乐之后接下来播放的候选音乐。
在步骤S96或S97之后,处理流程进入步骤S98。在步骤S98中,音频/视频数据选择控制器201监视是否已到达当前正在播放的音乐的结尾。如果判断为已到达该音乐的结尾,那么保存在重放历史信息存储单元15中的关于重放已结束的音乐(音乐内容)的重放历史被更新,包括在与该音乐内容关联的属性信息中的重放历史信息也被更新(步骤S99)。
音频/视频数据选择控制器201随后从在步骤S96或S97中确定的候选音乐中选择接下来要播放的音乐内容,并发出读取所选音乐内容的音频/视频数据和开始其重放的命令(步骤S100)。处理流程随后返回图22中的步骤S63,重复从步骤S63开始的处理。
在步骤S98中判断为未到达当前音乐的结尾的情况下,音频/视频数据选择控制器201判断收听者是否已经按下了置于用户接口11的操作单元上的“下一首”按钮(步骤S101)。注意当收听者想要停止当前音乐的重放,并开始播放下一首音乐时,按下“下一首”按钮。
如果在步骤S101中判断为“下一首”按钮已被按下,那么在步骤S100中,音频/视频数据选择控制器201从在步骤S96或S97中确定的候选音乐中选择接下来要播放的音乐内容,并发出读取所选音乐内容的音频/视频数据和开始其重放的命令。处理流程随后返回步骤S63,以重复从步骤S63开始的处理。
在步骤S101中判断为“下一首”按钮未被按下的情况下,音频/视频数据选择控制器201判断用户是否已经通过用户接口11发出了编排请求命令。如果判断为已经发出了编排请求命令,那么处理流程返回步骤S94,以重复从步骤S94开始的处理。
当在步骤S102中判断为没有检测到编排请求命令时,音频/视频数据选择控制器201判断用户是否已经按下了置于用户接口11的操作单元上的“停止”按钮(步骤S103)。如果判断为“停止”按钮未被按下,那么处理流程返回步骤S98,以监视是否到达了当前音乐的结尾。但是,如果判断为“停止”按钮已被按下,那么结束重放处理例程。
在上面说明的例子中,当收听者对当前正在播放的音乐没有表现出兴趣时,在步骤S66中获得重放历史信息,并根据所获得的重放历史信息在步骤S67中确定将在当前音乐之后接下来播放的候选音乐。在上面说明的步骤S66中,通过分析借助环境信息获取单元40获得的环境信息,可以检测收听者的当前位置,所述当前位置可以是山、海滩等,并且在下一步骤S67中,可将包括在属性信息中的环境信息与在步骤S66中检测到的环境信息相符的一些音乐选为将在当前音乐之后接下来播放的候选音乐。除了上面说明的环境信息满足所需环境条件的一些音乐之外,在音乐构成信息方面与当前音乐类似的一些音乐可被添加到将在当前音乐之后接下来播放的候选音乐中。
在上面说明的步骤S67中,音频/视频数据选择控制器201在确定接下来要播放的候选音乐时可使用重放历史信息和环境信息二者。
图25是示出由主节奏单元210执行的产生同步信号和音乐重构数据的处理的例子的流程图。
首先,音频/视频数据选择控制RM单元201M通过属性信息获取单元203,从音乐内容存储单元20的属性信息存储单元22获得与正在播放的音乐关联的属性信息(步骤S111),并从所获得的属性信息中提取BPM值、音调值和和弦值(步骤S112)。
根据所提取的BPM值,产生包括小节同步信号PHSY和节拍同步信号BTSY的同步信号SYNC(步骤S113)。分别在BPM值设置单元、音调值设置单元和和弦值设置单元中设置所提取的BPM值、音调值和和弦值(步骤S114)。
将在步骤S113中产生的同步信号SYNC和包含在步骤S114中所设置的BPM值、音调值和和弦值的音乐重构数据API发送给从属节奏单元220(步骤S115)。
随后判断重放操作是否已被停止(步骤S116)。如果判断是肯定的,那么结束图25中的处理例程。但是,如果判断是否定的,那么进一步判断是否已到达当前音乐的结尾(步骤S117)。如果判断为还未到达当前音乐的结尾,那么处理流程返回步骤S113,以继续向从属节奏单元220传送同步信号SYNC和音乐重构数据API。
如果在步骤S117中判断为已经到达了音乐的结尾,那么准备选择的下一首音乐的重放(步骤S118)。处理流程随后返回步骤S111,重复从步骤S111开始的处理。
注意,如上所述,在属性信息中描述的,指示诸如小节之类的音乐组成元素的边界的时间码信息应完全对应于指示实际音频/视频数据的小节的边界的时间码信息,属性信息应完全对应于音乐内容的音频/视频数据,以便确保从主节奏单元210向从属节奏单元220提供的同步信号SYNC和音乐构成数据ARI与通过音频/视频数据获取单元204输入到从属节奏单元220的音频/视频数据的重放信号流完全同步。
图26是示出由从属节奏单元220执行的音乐重构处理的例子的流程图。在下面的说明中,作为例子假定音乐重构处理只包括重混,不过音乐重构可包括其它处理,比如如上所述的效果的应用。
首先,音频/视频数据选择控制RS单元201S通过属性信息获取单元203,从音乐内容存储单元20的属性信息存储单元22获得与待播放的音乐关联的属性信息,以及与其它一些音乐内容关联的属性信息(步骤S121),并且按照所获得的属性信息,音频/视频数据选择控制RS单元201S确定将与待播放的音乐混合的音乐素材数据(步骤S122)。
在上述处理中,可对所有音乐内容从音乐内容存储单元20的属性信息存储单元22读取属性信息。但是,当大量的音乐内容被保存在音乐内容存储单元20中时,读取所有音乐内容的属性信息会导致检测将与待播放的音乐混合的音乐的处理负荷显著增大。为了避免上述问题,在本实施例中,不是一次对于所有音乐内容从音乐内容存储单元20的属性信息存储单元22进行属性信息的读取,而是进行多次读取,以便一部分接一部分地获得属性信息,每次进行读取时,检测将与感兴趣的音乐混合的音乐素材。
在一部分接一部分地从音乐内容存储单元20的属性信息存储单元22读取属性信息的情况下,在开始感兴趣的音乐的播放之后,还检测将与感兴趣的音乐混合的一些音乐素材。但是,当开始感兴趣的音乐的播放时,通常并不立即开始重混。因此,实际上,一部分接一部分地读取能够提供在实际开始重混之前检测将与感兴趣的音乐混合的音乐素材所必需的属性信息。
随后,按照音频/视频数据选择控制RS单元201S发出的选择命令,通过解码单元202和音频/视频数据获取单元204获得待播放的音乐的音频/视频数据,并且开始对该音乐的播放(步骤S123)。如上所述,与从主节奏单元210输出的同步信号SYNC和音乐重构数据ARI同步地进行该播放。
音频/视频数据选择控制RS单元201S随后判断是否将一些音乐数据和感兴趣的音乐混合(步骤S124)。如果判断为不执行重混处理,那么音频/视频数据选择控制RS单元201S把感兴趣音乐的音乐数据经音频/视频数据解码器205和音频/视频编排处理单元206,发送给音频输出单元53和视频输出单元56(步骤S125)。
另一方面,如果在步骤S124中判断为要进行重混,那么在按照上述方式,在根据从主节奏单元210提供的音乐重构数据ARI调节音乐素材的速度和音程的同时,将在步骤S122中检测到的音乐素材与感兴趣音乐的音乐数据混合(步骤S126)。将所得到的重混音乐数据输出(步骤S127)。
随后判断重放操作是否已被停止(步骤S128)。如果判断是肯定的,那么结束图26中的处理例程。但是,如果判断是否定的,那么进一步判断是否已到达当前音乐的结尾(步骤S129)。如果判断为还未到达当前音乐的结尾,那么处理流程返回步骤S124,以重复从步骤S124开始的处理。
如果在步骤S129中判断为已到达该音乐的结尾,那么准备下一首所选择的音乐的重放(步骤S130)。处理流程随后返回步骤S121,以重复从步骤S121开始的处理。
第二实施例
在上面说明的第一实施例中,主节奏单元210进行音乐重构处理,以便从与正在播放的音乐内容关联的属性信息中检测BPM值、音调值和和弦值,简单地按照检测出的BPM值、音调值和和弦值进行重混,而不改变正在播放的感兴趣音乐的速度或音调。但是,在音乐重构处理中,可以根据收听者的情绪、收听者收听该音乐的地点的环境状况,和/或编排信息改变正在播放的感兴趣音乐的速度和/或音调。
这种情况下,收听者可能想要指定播放音乐的速度和/或音调。在一些情况下,收听者可能想与在记录/重放设备所处地点击打的鼓声或弹奏的钢琴同步地播放感兴趣的音乐。还存在与从外部输入到记录/重放设备的音乐同步地在记录/重放设备上播放音乐的需要。
在第二实施例中,鉴于上面所述,本发明提供一种够满足上述要求的记录/重放设备。
图27是示出按照第二实施例的记录/重放设备的框图,除了该记录/重放设备还包括均与系统总线2连接的线路输入接口17和麦克风输入接口18之外,该记录/重放设备在硬件结构方面与图1中所示的按照第一实施例的记录/重放设备类似。
线路输入接口17还与外部输入端子8连接,以便当音频/视频数据经外部输入端子(线路输入端子)8输入到记录/重放设备时,线路输入接口17通过系统总线2传送所输入的音频/视频数据。
在该第二实施例中,编/解码器12按照用户通过用户接口11发出的命令,对经外部输入端子8输入的音频/视频数据编码,并将所得到的编码数据保存在音乐内容存储单元20的音频/视频数据存储单元21中。
经外部输入端子8输入的音频/视频数据由音乐风格/结构分析器13分析,作为分析结果而得到的音乐构成信息由编/解码器12编码,并被保存在音乐内容存储单元20的属性信息存储单元22中。如上所述,在上面的处理中,保存在音乐内容存储单元20中的属性信息通过对应的标识信息与对应的音频/视频数据联系起来。
在该第二实施例中,如后更详细所述,允许与经外部输入端子8输入的音频/视频数据的速度同步地播放感兴趣的音乐。这种情况下,经外部输入端子8输入的音频/视频数据由音乐风格/结构分析器13分析,并且按照通过分析获得的BPM值,产生上面所述的同步信号SYNC。
麦克风输入接口18与充当声音感测装置的麦克风9连接。麦克风9检测到的音频信号由麦克风输入接口18转换成数字信号,并通过系统总线2输出。
在该第二实施例中,如后所述,允许与麦克风9感测的、并经麦克风输入接口18输入的音频数据的速度同步地重放指定的音乐数据。
例如,用在记录/重放设备附近的鼓、钢琴等演奏的音乐的声音由麦克风9感测,并由音乐风格/结构分析器13分析,以检测BPM值。根据检测到的BPM值,产生同步信号SYNC。
图28示出按照第二实施例的重放单元200,它对应于上面参考图13说明的按照第一实施例的重放单元。除了音频/视频数据选择控制器201与线路输入接口17和麦克风输入接口18连接,并且音频/视频数据选择控制器201以不同于第一实施例的方式执行软件处理之外,重放单元200与按照第一实施例的重放单元类似。
图29示出从重构音乐的处理的观点来看,图28中所示的重放单元200的功能块。注意尽管从不同的观点来观察图29和图28,但是图29中所示的结构与图28中所示的结构本质上相同。
如图29中所示,重放单元200包括主节奏单元210和从属节奏单元220。主节奏单元210适合于产生按照其重构音乐数据的同步信号和音乐重构信息,并输出它们。从属节奏单元220适合于按照从主节奏单元210提供的同步信号和音乐重构信息,重构音乐数据。
与第一实施例一样,音频/视频数据选择控制器201具有两个主要部分。一个是属于主节奏单元210的RM单元201M,另一个是属于从属节奏单元220的RS单元201S。在该第二实施例中,不仅属性信息获取单元203,而且生物信息获取单元30、环境信息获取单元40和重放历史信息存储单元15都既属于主节奏单元210,又属于从属节奏单元220。
即,在第二实施例中,主节奏单元210包括RM单元201M、属性信息获取单元203、生物信息获取单元30、环境信息获取单元40和重放历史信息存储单元15。
另一方面,与第一实施例一样,按照第二实施例的从属节奏单元220包括RS单元201S、属性信息获取单元203、生物信息获取单元30、环境信息获取单元40、重放历史信息存储单元15、音频/视频数据获取单元204和音频/视频数据解码器205。即,从属节奏单元的结构类似于第一实施例的从属节奏单元的结构。
注意,不仅允许主节奏单元210的RM单元201M根据属性信息获取单元203提供的属性信息,产生用作音乐重构处理中的参考信号的同步信号SYNC,而且在该第二实施例中,还允许主节奏单元210根据其它数据,比如用户经用户接口11输入的命令/数据,经线路输入接口17从外部输入的音频/视频数据,经麦克风输入接口18输入的外部检测的音频数据,经生物信息获取单元30获得的收听者的生物信息,经环境信息获取单元40获得的环境信息,和从重放历史信息存储单元15读取的重放历史信息,产生同步信号SYNC。
此外,在该第二实施例中,不仅在同步信号SYNC的产生中,而且在音乐构成数据ARI的产生中,都允许主节奏单元210同样参考用户经用户接口11输入的命令/数据,经线路输入接口17从外部输入的音频/视频数据,经麦克风输入接口18输入的外部检测的音频数据,经生物信息获取单元30获得的收听者的生物信息,经环境信息获取单元40获得的环境信息,和/或从重放历史信息存储单元15读取的重放历史信息。
图30是示出按照第二实施例的主节奏单元210的细节的框图。在该图中,特别示出了RM单元201M的功能的细节。在按照第二实施例的RM单元201M中,按照第一实施例的同步信号发生器212被同步信号发生器230替代,属性信息分析单元211被重放模式设置单元240替代。
重放模式设置单元240不仅适合于从属性信息获取单元203接收数据,而且适合于从生物信息获取单元30、环境信息获取单元40、重放历史信息存储单元15、线路输入接口17、麦克风输入接口18和用户接口11接收数据。除了上面所述之外,主节奏单元210与按照第一实施例的主节奏单元类似。
同步信号发生器230包括内部节奏同步信号发生器231,外部节奏同步信号发生器232,生物节奏同步信号发生器233,和用于选择从这三种节奏同步信号发生器231、232和233输出的同步信号之一的选择开关电路234。
内部节奏同步信号发生器231包括例如PLL电路,适合于按照从与要播放的感兴趣的音乐内容关联的属性信息中提取的BPM值(与第一实施例一样),或者按照用户经用户接口11指定的BPM值,产生同步信号SYNC。
外部节奏同步信号发生器232包括例如PLL电路,适合于按照从经线路输入接口17输入的外部输入信号中提取的BPM值,或者按照从经麦克风输入接口18输入的外部检测的音频信号中提取的BPM值,产生同步信号SYNC,使得同步信号SYNC与从外部输入的音乐节奏同步。
生物节奏同步信号发生器233包括例如PLL电路,并且适合于产生与用生物信息获取单元30获得的生物信息同步的同步信号SYNC,所述生物信息表示例如用户的脑电波,行走节奏或行走速度,手臂或手的运动节奏或速度。注意三个同步信号发生器231、232和233可共用一个PLL电路。
在该第二实施例中,按照用户经用户接口11发出的同步信号选择命令,重放模式设置单元240从三种模式:内部节奏同步模式、外部节奏同步模式和生物节奏同步模式中选择产生同步信号SYNC的同步信号生成模式。按照所选择的模式,重放模式设置单元240产生选择控制信号,从而控制同步信号发生器230中的选择开关电路234。
内部节奏同步模式
与待重放的感兴趣的音乐内容同步
当选择内部节奏同步模式时,进一步选择是与待播放的感兴趣的音乐内容关联的属性信息同步,还是与用户经用户接口11指定的BPM值同步地生成同步信号SYNC。在外部节奏同步模式的情况下,进一步选择是与经外部输入端子8输入的外部信号同步,还是与麦克风9检测的外部音频信号同步地生成同步信号SYNC。
在内部节奏同步模式下,如果选择与和感兴趣的音乐内容关联的属性信息同步,那么重放模式设置单元240把选择开关电路234设置成选择来自内部节奏同步信号发生器231的输出,重放模式设置单元240经属性信息获取单元203获得与感兴趣的音乐内容关联的属性信息,并把从属性信息中提取的BPM值提供给同步信号发生器230中的内部节奏同步信号发生器231。内部节奏同步信号发生器231以与接收到的BPM值对应的频率振荡,从而产生相位上与感兴趣的音乐内容的音乐节奏同步的同步信号SYNC。
因此,根据在与待播放的音乐内容关联的属性信息中指定的BPM值产生的同步信号SYNC通过同步信号输出电路213,从同步信号发生器230输出到从属节奏单元220。
重放模式设置单元240从通过属性信息获取单元203获得的待播放的音乐内容的属性信息中提取音调值和和弦值,并把所述音调值和和弦值连同已提取的BPM值一起提供给音乐重构数据设置单元214。音乐重构数据设置单元214分别在对应的设置单元217、218和219中设置所接收到的BPM值、音调值和和弦值。
因此,包括与感兴趣的音乐内容关联的属性信息中的BPM值、音调值和和弦值的音乐重构数据ARI与同步信号SYNC同步地输出到从属节奏单元220。从属节奏单元220以和上面说明的第一实施例类似的方式,按照与感兴趣的音乐内容关联的属性信息进行音乐重构处理。
与用户输入同步
在内部节奏同步模式下,如果选择与用户输入同步,那么重放模式设置单元240把选择开关电路234设置成选择内部节奏同步信号发生器231的输出。重放模式设置单元240接受用户经用户接口11输入的BPM值,并把所接受的BPM值提供给同步信号发生器230的生物节奏同步信号发生器231。内部节奏同步信号发生器231产生以和所提供的BPM值对应的频率振荡的同步信号SYNC。
从而,根据用户指定的BPM值产生的同步信号SYNC经同步信号输出电路213从同步信号发生器230输出到从属节奏单元220。从而,根据用户设置的BPM值产生的同步信号SYNC经同步信号输出电路213从同步信号发生器230输出到从属节奏单元220。
除了BPM值之外,重放模式设置单元240还接受通过用户接口11输入的音调值和和弦值(和弦序列),并把所接受的BPM值、音调值和和弦值提供给音乐重构数据设置单元214。在这种模式下,为了随着时间改变音调值和/或和弦值,时变值也由用户指定。音乐重构数据设置单元214分别在对应的设置单元217、218和219中设置接收到的BPM值、音调值和和弦值。
从而,包含由用户设置的BPM值、音调值和和弦值的音乐重构数据ARI与同步信号SYNC同步地输出到从属节奏单元220,从而,从属节奏单元220以用户指定的音乐风格/结构和用户指定的速度提供音乐的音频重放输出。
外部节奏同步模式
当选择外部节奏同步模式时,重放模式设置单元240把选择开关电路234设置成选择外部节奏同步信号发生器232的输出。音频数据经用户选择的线路输入接口17或者麦克风输入接口18被输入,并由音乐风格/结构分析器13分析。作为分析的结果而获得的BPM值被提供给外部节奏同步信号发生器232。外部节奏同步信号发生器232产生以和所提供的BPM值对应的频率振荡,并且相位与从外部输入的音乐节奏同步的同步信号SYNC。
从而,根据从外部输入信号或者麦克风输入信号检测的BPM值产生的同步信号SYNC从同步信号发生器230经同步信号输出电路213输出到从属节奏单元220。
重放模式设置单元240还从通过属性信息获取单元203获得的待播放的音乐内容的属性信息中提取音调值和和弦值,并把所述音调值和和弦值连同已提取的BPM值一起提供给音乐重构数据设置单元214。音乐重构数据设置单元214分别在对应的设置单元217、218和219中设置所接收到的BPM值、音调值和和弦值。
从而,包含从外部输入信号或麦克风输入信号检测的BPM值、音调值和和弦值的音乐重构数据ARI与同步信号SYNC同步地输出到从属节奏单元220。
从而,在外部节奏同步模式下,从属节奏单元220以被设置成与从外部输入的音乐同步的速度提供音乐的音频重放输出。
生物节奏同步模式
当选择生物节奏同步模式时,重放模式设置单元240把选择开关电路234设置成选择生物节奏同步信号发生器233的输出。重放模式设置单元240从经生物信息获取单元30获得的生物信息中提取与速度或节奏相关的分量,并按照所提取的分量,产生表示BPM值的信息。所产生的BPM值被提供给同步信号发生器230的生物节奏同步信号发生器231。
同步信号发生器230产生以与用户的生物节奏对应的频率振荡,并且相位与生物节奏同步的同步信号SYNC。所产生的同步信号SYNC经同步信号输出电路213被提供给从属节奏单元220。从而,从属节奏单元220以与用户的生物节奏同步的速度提供音乐的音频重放输出。
在生物节奏同步模式下,不仅仅按照通过生物信息获取单元30获得的生物信息,而且还可考虑从环境信息获取单元40提供的环境信息,来产生同步信号SYNC。
例如,当环境信息表示记录/重放设备位于“海滩”,环境温度较高并且没有下雨时,能够以与生物信息同步的较快速度产生同步信号SYNC。相反,当环境信息表示记录/重放设备位于“山”上时,能够以与生物信息同步的缓慢速度产生同步信号SYNC。
保存在重放历史信息存储单元15中的重放历史信息可包括生物信息,所述生物信息表示正在收听一首特定音乐的收听者的、与该首音乐相关联的脉搏速度等。可从重放历史信息存储单元15搜索生物信息与通过生物信息获取单元30获得的当前生物信息相近的一首音乐,并可按照根据与在搜索中检测到的音乐关联的属性信息确定的BPM值,产生同步信号SYNC。这种情况下,同步信号SYNC可以与也可不与从生物信息获取单元30获得的当前生物信息同步。
这种情况下,在本实施例中,通过利用从生物信息获取单元30提供的生物信息和/或从环境信息获取单元40提供的环境信息作为搜索关键字,重放模式设置单元240搜索保存在重放历史信息存储单元15中的重放历史信息,根据与作为搜索的结果检测到的一首音乐关联的属性信息产生BPM值、音调值和和弦值,并把检测到的值传送给音乐重构数据设置单元214。音乐重构数据设置单元214分别在对应的设置单元217、218和219中设置所接收到的BPM值、音调值和和弦值。
例如,当生物信息表示收听者处于精神振奋状态时,根据重放历史检测在这样的精神状态下该收听者经常收听的一首音乐。随后按照检测到的该首音乐的BPM值产生同步信号SYNC,产生包括该音乐的BPM值、音调值和和弦值的音乐重构数据ARI,并将所述音乐重构数据ARI从主节奏单元210提供到从属节奏单元220。这使得能够以和在精神振奋状态下经常收听的音乐的速度或风格类似的速度或风格播放一首音乐。
当根据环境信息检测位置,比如大海或海滩,或者检测气候,比如下雨或晴朗时,通过利用环境信息作为搜索关键字进行搜索,可根据重放历史检测在这样的位置,或者在这样的环境条件下经常收听的一首音乐,并根据检测到的该首音乐的BPM值,可产生同步信号SYNC和包括所检测到的音乐的BPM值、音调值和和弦序列的音乐重构数据ARI,并将其从主节奏单元210提供到从属节奏单元220。这使得能够以和在这样的环境条件下经常收听的音乐的速度或风格类似的速度或风格播放一首音乐。
从而,包括与按照生物信息和/或环境信息及重放历史信息选择的音乐关联的BPM值、音调值和和弦值的音乐重构数据ARI与同步信号SYNC同步地被输出到从属节奏单元220。从属节奏单元220重构音乐,以便具有根据情绪和/或环境状况确定的速度或风格,并输出所得到的音频重放数据。
在用户通过用户接口11发出编排请求命令的情况下,音乐被重构,以便具有与编排请求命令相符的速度和/或风格,所得到的音频重放数据以与上述第一实施例类似的方式输出。
在该第二实施例中,产生同步信号SYNC的方法并不局限于上面说明的例子。例如,可按照通过环境信息获取单元40获得的环境信息,和保存在重放历史信息存储单元15中的重放历史产生同步信号SYNC。
例如,可利用从环境信息获取单元40获得的环境信息作为搜索关键字,搜索保存在重放历史信息存储单元15中的重放历史,来检测属性信息中的环境信息与从环境信息获取单元40获得的环境信息类似或接近的一首音乐,可按照包括在与作为搜索结果而检测到的音乐关联的属性信息中的BPM值,产生同步信号SYNC。
在上面说明的第一实施例中,将首先播放的音乐由用户选择。在该第二实施例中,将首先播放的音乐可由用户选择,或者可以如下所述选择。当在内部节奏同步模式下按照用户指定的BPM值产生同步信号SYNC时,或者当选择外部节奏同步模式或生物节奏同步模式时,从属节奏单元220根据保存在音乐内容存储单元20的属性信息存储单元22中的属性信息,检测完全或基本上与音乐重构数据ARI相符的一首音乐,并把检测到的该首音乐选为将首先播放的音乐。
另外在该第二实施例中,可以以和上面说明的第一实施例类似的方式,根据从主节奏单元210输出的同步信号SYNC和音乐重构数据ARI,重构当前正在播放的一首音乐。
主节奏单元210的操作
下面参考图31-34中所示的流程图说明按照第二实施例的主节奏单元210的操作。
首先,在第二实施例中,重放模式设置单元240判断用户通过用户接口11指定了哪种同步参考信号(步骤S201)。
在步骤S201中判断为选择了内部节奏同步模式,并且指定与将播放的感兴趣的音乐内容同步的情况下,音频/视频数据选择控制RM单元201M的重放模式设置单元240通过属性信息获取单元203,从音乐内容存储单元20的属性信息存储单元22获得与正在重放的音乐关联的属性信息(步骤S202),并从所获得的属性信息提取BPM值、音调值和和弦值(步骤S203)。
根据所提取的BPM值,产生包括小节同步信号PHSY和节拍同步信号BTSY的同步信号SYNC(步骤S204)。所提取的BPM值、音调值和和弦值分别在BPM值设置单元、音调值设置单元和和弦值设置单元中设置(步骤S205)。
在步骤S204中产生的同步信号SYNC和包含步骤S205中所设置的BPM值、音调值和和弦值的音乐重构数据ARI被发送给从属节奏单元220(步骤S206)。
随后判断重放操作是否已停止(步骤S207)。如果判断是肯定的,那么结束当前处理例程。但是,如果判断是否定的,那么进一步判断是否已到达当前音乐的结尾(步骤S208),随后判断用户是否通过用户接口11发出了改变同步参考的命令(步骤S210)。如果判断为同步参考被改变,那么处理流程返回步骤S201,以重复从步骤S201开始的处理。
在步骤S210中判断为同步参考未被改变的情况下,处理流程返回步骤S204,以重复从步骤S204开始的处理。
如果在步骤S208中判断为已到达音乐的结尾,那么准备重放所选择的下一首音乐(步骤S209)。处理流程随后返回步骤S202,以重复从步骤S202开始的处理。
另一方面,在步骤S201中判断为选择内部节奏同步模式,并且指定应按照用户规定的值生成同步参考信号的情况下,重放模式设置单元240获得用户指定的BPM值(图32中的步骤S221)。根据所获得的BPM值,产生包括小节同步信号PHSY和节拍同步信号BTSY的同步信号SYNC(步骤S222)。除了BPM值之外,还获得用户指定的音调值和和弦值(步骤S223)。所获得的BPM值、音调值和和弦值被发送给音乐重构数据设置单元214,并分别在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置(步骤S224)。
在步骤S222中产生的同步信号SYNC和包含步骤S223中所设置的BPM值、音调值和和弦值的音乐重构数据ARI被发送给从属节奏单元220(步骤S225)。
随后判断重放操作是否已停止(步骤S226)。如果判断是肯定的,那么结束当前处理例程。但是,如果判断是否定的,那么进一步判断是否已到达当前音乐的结尾(步骤S227)。如果判断为未到达当前音乐的结尾,那么随后判断用户是否经用户接口11发出了改变同步参考的命令(步骤S229)。如果判断为同步参考被改变,那么处理流程返回步骤S201,以重复从步骤S201开始的处理。
在步骤S229中判断为同步参考未被改变的情况下,处理流程返回步骤S225,以重复从步骤S225开始的处理。
如果在步骤S227中判断为已到达音乐的结尾,那么准备重放所选择的下一首音乐(步骤S228)。处理流程随后返回步骤S225,以重复从步骤S225开始的处理。
在步骤S201中判断为规定应以外部节奏同步模式产生同步参考信号的情况下,判断是使用通过外部输入端子8给出的输入信号还是通过麦克风9检测的音频信号来作为同步参考信号(图33中的步骤S231)。
如果在步骤S231中判断使用通过外部输入端子8给出的输入信号作为同步参考信号,那么重放模式设置单元240把经外部输入端子8输入的音频信号提供给音乐风格/结构分析器13,以便分析所输入的音频信号(步骤S232)。另一方面,在步骤S231中判断使用通过麦克风9检测的音频信号作为同步参考信号的情况下,重放模式设置单元240把通过麦克风9检测的音频信号提供给音乐风格/结构分析器13,以便分析所输入的音频信号(步骤S233)。
在步骤S232或S233之后,处理流程进入步骤S234。在步骤S234中,根据音乐风格/结构分析器13所进行的分析的结果,确定BPM值,将所确定的BPM值提供给同步信号发生器230,以产生同步信号SYNC(步骤S234)。
除了BPM值之外,还根据音乐风格/结构分析器13所进行的分析的结果,确定音调值和和弦值,将所确定的BPM值、音调值和和弦值发送给音乐重构数据发生器214,并将其分别在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中设置(步骤S235)。
在步骤S234中产生的同步信号SYNC和包含步骤S235中所设置的BPM值、音调值和和弦值的音乐重构数据ARI被发送给从属节奏单元220(步骤S236)。
之后,判断重放操作是否已停止(步骤S237)。如果判断是肯定的,那么结束当前处理例程。但是,如果判断是否定的,那么进一步判断是否到达了当前音乐的结尾(步骤S238)。如果判断为未到达当前音乐的结尾,那么判断用户是否经用户接口11发出了改变同步参考的命令(步骤S239)。如果判断为同步参考被改变,那么处理流程返回步骤S201,以重复从步骤S201开始的处理。
在步骤S239中判断为同步参考未被改变的情况下,处理流程返回步骤S234,以重复从步骤S234开始的处理。
如果在步骤S238中判断为已到达音乐的结尾,那么准备重放所选择的下一首音乐(步骤S240)。处理流程随后返回步骤S231,以重复从步骤S231开始的处理。
在步骤S201中判断为使用生物节奏作为同步参考信号的情况下,重放模式设置单元240通过生物信息获取单元30获得收听者的生物信息(图34中的步骤S251),并获得与记录/重放设备关联的环境信息(步骤S252)。
根据所获得的生物信息产生速度信息,并将所产生的速度信息提供给同步信号发生器230。同时信号发生器230按照速度信息产生同步信号SYNC(步骤S253)。按照生物信息、环境信息和保存在重放历史信息存储单元15中的重放历史信息,以上述方式确定BPM值、音调值和和弦值(步骤S254)。
将所确定的BPM值、音调值和和弦值发送给音乐重构数据设置单元214,并且将其分别设置在BPM值设置单元217、音调值设置单元218和和弦值设置单元219中(步骤S255)。
在步骤S253中产生的同步信号SYNC和包含步骤S255中所设置的BPM值、音调值和和弦值的音乐重构数据ARI被发送给从属节奏单元220(步骤S256)。
随后判断重放操作是否已被停止(步骤S257)。如果判断是肯定的,那么结束当前处理例程。但是,如果判断是否定的,那么进一步判断是否已到达当前音乐的结尾(步骤S258)。如果判断为未到达当前音乐的结尾,那么判断用户是否经用户接口11发出了改变同步参考的命令(步骤S260)。如果判断为同步参考被改变,那么处理流程返回步骤S201,以重复从步骤S201开始的处理。
在步骤S260中判断为同步参考未被改变的情况下,处理流程返回步骤S251,以重复从步骤S251开始的处理。
如果在步骤S258中判断为已到达音乐的结尾,那么准备重放所选择的下一首音乐(步骤S259)。处理流程随后返回步骤S251,以重复从步骤S251开始的处理。
如上所述,在第二实施例中,允许以正在播放的音乐本身的速度和/或音调的方式进行重构。如果收听者通过用户接口指定了播放音乐的速度和/或音调,那么以指定的速度和/或指定的音调重构和播放当前正在播放的音乐。
允许进行音乐重构,使得与从外部输入的音频信号同步地播放指定的音乐。也可与收听者的行走步幅或脉搏速度同步地播放音乐。另外,可根据环境情况增大或降低速度和/或音调。
图35示出按照第二实施例的音乐信号和音乐重构数据ARI的流。图35示出在从属节奏单元220中的音频/视频编排处理单元206按照从主节奏单元210输出的音乐重构数据ARI进行的音乐数据重构处理期间,与从主节奏单元210输出的同步信号SYNC同步地在从属节奏单元220中的音频/视频数据解码器205和音频/视频编排处理单元206中传送的音乐信号。
在图35中所示的例子中,音乐重构数据ARI不一定从与正在播放的感兴趣的音乐内容关联的属性信息提取,因此BPM值可不同于感兴趣的音乐内容的BPM值。此外,包含在音乐重构数据ARI中的音调值和和弦值可不同于正在播放的感兴趣的音乐内容的音调值和和弦值。
在图35中所示的例子中,以音轨1中的重放信号流的形式给出待播放的音乐内容。在图35中所示的例子中,表示目标BPM值“120”、目标音调值“C大调”、和目标和弦值的序列“C”→“G”→“F”的音乐重构数据ARI从主节奏单元210输入到从属节奏单元220。
从属节奏单元220处理音轨1中的音乐内容的重放信号流,使得按照从编排控制单元221提供的选择命令,修改从音乐内容存储单元20获得的感兴趣的音乐内容的音乐数据本身的速度和/或音调,同时从音频/视频数据解码器205,在音轨2和3中输出两条音乐素材数据,这两个音乐素材数据被校正,以便满足在音乐重构数据ARI中描述的目标值,并且最终与音轨1中的音乐内容混合。
更具体地说,在音频/视频编排处理单元206中,音轨1中的音频数据被校正,从而与在音乐重构数据ARI中指定的目标BPM值和目标和弦值一致,音轨2和3中的音频数据被校正,从而与在音乐重构数据ARI中指定的目标BPM值和目标和弦值一致,并且音轨2和3中的校正后的音频数据与音轨1中的音乐数据混合。
在上面的处理中,在图35中所示的例子中,在小节段Pa和Pb中,通过属性信息获取单元203获得的音轨1中的音乐素材数据1的BPM值为“140”,它不同于在音乐重构数据ARI中指定的BPM值“120”。从而,音频/视频编排处理单元206校正速度,使得在小节段Pa和Pb中,音轨1中的音乐数据的BPM值从“140”变成“120”。
在小节段Pa中,对于音乐素材数据1,通过属性信息获取单元203获得的和弦值为“D”,它不同于在音乐重构数据ARI中指定的和弦值“C”。从而,音频/视频编排处理单元206校正音程,使得音轨1中的音乐数据的和弦值从“D”变成“C”。
在该小节段Pa中,音轨3中的音乐素材数据3与音轨1中的音频数据混合。对于小节段Pa中的音乐素材数据3,通过属性信息获取单元203获得的BPM值为“120”,它与在音乐重构数据ARI中指定的BPM值相等,从而,音频/视频编排处理单元206不校正该小节段Pa中的音乐素材数据3的速度。
另一方面,在小节段Pa中,对于音乐素材数据3,通过属性信息获取单元203获得的和弦值为“D ”,它不同于在音乐重构数据ARI中指定的和弦值“C”,从而,音频/视频编排处理单元206的音程校正电路226校正音乐素材数据3的音程,使得和弦值从“D”变成目标和弦值“C”。
在下一个小节段Pb的前半部中,对于音轨1中的音乐素材1的音频数据,通过属性信息获取单元203获得的和弦值为“D”,它不同于在音乐重构数据ARI中指定的和弦值“G”。从而,音频/视频编排处理单元206校正音程,使得音轨1中的音乐数据的和弦值从“D”变成“G”。
在小节段Pb的后半部中,对于音乐素材1的音频数据,通过属性信息获取单元203获得的和弦值为“D”,它不同于在音乐重构数据ARI中指定的和弦值“F”。从而,音频/视频编排处理单元206校正音程,使得音轨1中的音乐数据的和弦值从“D”变成“F”。
在小节段Pb的前半部中,音轨2中的音乐素材数据2与音轨1中的音频数据混合。在小节段Pb的后半部中,音轨2中的音乐素材数据2和音轨3中的音乐素材数据3与音轨1中的音乐数据混合。
在小节段Pb的前半部中,通过属性信息获取单元203获得的音乐素材数据2的BPM值为“100”,和弦值为“E”,它们不同于在音乐重构数据ARI中指定的目标BPM值“120”和目标和弦值“G”。从而,在小节段Pb的前半部中,音频/视频编排处理单元206把音乐素材数据2的BPM值从“100”校正为目标值“120”,从而校正速度,并且音频/视频编排处理单元206校正音程,使得和弦从“E”校正为目标和弦值“G”。在小节段Pb的后半部中,校正后的音乐素材数据2被添加到音轨1中的音乐数据中。
在小节段Pb的后半部中,音乐素材数据2的BPM值为“100”,和弦值和“E”,它们不同于在音乐重构数据ARI中指定的目标BPM值“120”和目标和弦值“F”,而音乐素材数据3的BPM值为“120”,和弦值为“F”,它们与在音乐重构数据ARI中指定的目标BPM值“120”和目标和弦值“F”相同。
从而,在小节段Pb的后半部中,音频/视频编排处理单元206校正音轨2中的音乐素材数据2的速度和音程,并且校正后的数据被添加到音轨1中的音乐数据中,而音轨3中的音乐素材数据3不经校正地被直接添加到音轨1中的音乐数据中。
如上所述,在第二实施例中,根据收听者的情绪,允许按照从主节奏单元输出的同步信号SYNC和音乐重构数据ARI,以根据收听者的情绪的各种方式重构正在播放的音乐内容。一条或多条其它音乐数据可与原始音乐数据混合成音乐上自然的形式。此外,允许用户指定将音乐编排成的音乐风格,例如古典风格、爵士风格、摇滚风格等,用户能够喜欢收听编排的音乐。
同样在该第二实施例中,根据同步信号SYNC,能够容易地检测小节或节拍的边界,从而能够容易地对音乐数据应用效果。此外,同样在第二实施例中,在进行重混时也可使用循环重放模式。
在第二实施例中,根据收听正在播放的音乐的用户的生物信息,环境信息,和/或用户的重放历史信息,可改变同步信号。这使得能够根据用户的偏爱和/或环境情况,以各种各样的方式编排音乐。
第三实施例
在上面说明的实施例中,音乐内容提供者预先产生包括推荐信息的编排信息,并将其包括在属性信息中。作为选择,编排信息可由用户产生。
这种情况下,在包括在与音乐内容关联的属性信息中的音乐构成信息中说明的和原始音乐的和弦序列、速度等有关的信息可被呈现给用户,从而允许用户根据希望修改它们。
更具体地说,如果用户向音乐内容记录/重放设备输入产生用户提供的编排信息和诸如音乐ID之类的音乐标识信息的命令,那么记录/重放设备(CPU1)从与指定音乐关联的属性信息中提取每个音乐组成元素的速度、和弦序列等方面的音乐构成信息,并在例如LCD显示屏111上显示所提取的音乐构成信息。
用户通过直接输入修改值,或者通过复制或部分改变数值,根据希望修改所显示的音乐构成信息的各个项目,从而输入编排信息。用户随后请求音乐内容记录/重放设备登记所产生的编排信息和诸如编排信息的名称之类的标识信息。
作为响应,所产生的编排信息作为用户提供的编排信息被包含到与感兴趣的音乐关联的属性信息中,并和诸如所述名称之类的标识名称一起被保存在属性信息存储单元22中。代替把包括在属性信息中的用户提供的编排信息保存在属性信息存储单元22中,用户提供的编排信息也可独立于编排信息被保存在所分配的供保存用户提供的编排信息之用的存储区中。
当用户发出的编排请求命令指定应利用用户提供的编排信息进行编排时,音乐内容记录/重放设备读取用户提供的编排信息的列表,并显示该列表。如果用户从该列表中选择所希望的用户提供编排信息,那么音乐内容记录/重放设备通过根据所选择的用户提供的编排信息,以与上述类似的方式重构音乐,编排所述音乐。
用户产生的编排信息可和其标识信息及音乐ID一起上传给服务器6,供其它用户使用。当服务器6从用户接收到下载对一首特定音乐的用户提供编排信息的请求时,服务器6把所请求的用户提供编排信息发送给用户。
其它实施例和修改
在上面说明的实施例中,如图12中所示,通过利用LCD显示屏11 1和光标按钮112发出编排请求。作为选择,LCD显示屏111可与触摸面板结合,从而允许用户仅仅通过LCD显示屏111发出编排请求。
代替使用如图12中所示的LCD显示屏111和操作按钮的组合,在音乐内容记录/重放设备上可设置直接指定将音乐编排成的音乐风格的操作按钮。
在图36中所示的例子中,允许用户仅仅通过按下与所希望的风格对应的按钮,来指定将音乐编排成的风格。
更具体地说,在图36中所示的例子中,提供风格指定按钮,包括古典风格按钮113、爵士风格按钮114、摇滚风格按钮115和其它风格按钮116。当正在播放一首音乐时,如果用户按下例如古典风格按钮113,那么分析与正在播放的该首音乐关联的属性信息,并读取供编排成所述古典风格之用的编排信息。按照该编排信息,以上述方式重构该首音乐,并播放所得到的重构音乐。
当属性信息中的古典风格编排信息包括多种子古典风格时,如果用户按下古典风格按钮113,那么子古典风格的列表按照与如图12(B)中所示的类似方式被显示在LCD显示屏111上。这种情况下,如果通过操作十字光标按钮112选择并最终确定编排风格之一,那么正在播放的该首音乐被重构成指定的编排风格并被播放。
代替如图36中所示布置多个按钮,如图37中所示布置一个风格选择按钮117。每次按下该风格选择按钮117时,按照例如古典风格→爵士风格→摇滚风格→hip-hop风格的顺序循环改变风格。当按下风格选择按钮117时,当前选择的风格被显示在LCD显示屏111上,使得用户能够识别当前选择的是哪种风格。
触摸屏可附属于LCD显示屏111,并且图36或37中所示的操作按钮113-117可被显示在LCD显示屏111上,从而允许用户通过触摸屏操作这些操作按钮。
在图36中所示的例子中,每个按钮被分配一种“风格”。作为选择,可提供一个可变操作装置,可向一个这样的操作装置分配两种“类型”。
在图38中所示的例子中,可提供可旋转的盘形旋钮118作为可变操作装置。当旋钮118被置于中间位置时,按其原始风格播放音乐内容。在图38中所示的例子中,重放设备被配置成使得当盘形旋钮118从中间位置开始沿顺时针方向旋转时,根据旋钮118的旋转角度,风格逐渐朝着“古典风格”改变。相反,如果沿逆时针方向旋转盘形旋钮118,那么根据旋转角度,风格逐渐朝着“hip-hop风格”改变。
在图38中所示的例子中,以盘形旋钮的形式实现可变操作装置。作为选择,可以滑动钮的形式实现可变操作装置。
可以盘形按钮的形式实现图36中所示的用于选择风格的每个操作按钮113-116,使得当按下特定的盘形按钮时,选择对应的风格,根据旋转位置,音乐被编排成所选风格的程度逐渐变化。当沿逆时针方向完全旋转该盘时,按照原始风格播放音乐。当从该位置开始沿顺时针方向旋转该盘时,音乐被编排成所选风格的程度逐渐增大。
可以以类似的方式实现图37中所示的操作按钮117。更具体地说,每次按下操作按钮117时,风格发生变化。如果沿顺时针方向旋转盘117,那么根据旋转角度,风格逐渐朝着所选风格改变。
可在LCD显示屏111上显示任意的盘形旋钮,使得可通过触摸面板操作它。
允许用户操作的盘形可变旋钮可被改装,从而响应例如从生物信息获取单元30提供的生物信息,可变地控制该旋钮。例如,从生物信息获取单元30获得用户的行走步幅,当行走步幅增大时,音乐重放速度被增大,音乐被编排成hip-hop风格的程度被增大。
在上面说明的实施例中,编排模式包括自动模式和手动模式。作为选择,编排模式可以只包括手动模式。
当只有手动模式可用时,不同于上面说明的实施例,不必把设备配置成当用户对当前音乐表现出一定偏爱时执行编排,相反,设备被配置成在发出编排请求命令时的任何时间进行编排。
当编排模式被配置成只能以手动模式工作时,生物信息获取单元30和环境信息获取单元不是必需的。这使得可以以更简单的结构构成所述设备。
在上面说明的实施例中,编排信息与对应的音乐数据关联地被保存在属性信息存储单元中,作为属性信息的一部分。但是,编排信息不一定需要被包括在属性信息中,相反,可与对应的音乐ID关联地独立于属性信息保存编排信息。
在上面说明的实施例中,当用户发出编排请求命令时,从音乐内容记录/重放设备的存储单元读取编排信息,按照该编排信息重构音乐数据。作为选择,当用户发出编排请求命令时,可从服务器获得编排信息,并按照所获得的编排信息进行重构处理(编排处理)。这种情况下,不必把编排信息保存在音乐内容记录/重放设备中。
这种情况下,音乐内容记录/重放设备不需要包括直接控制编排请求命令的操作单元,相反,音乐内容记录/重放设备只需要如下工作:使得从服务器6获得并显示可用编排风格的列表,从而允许用户通过操作十字光标按钮等,选择所希望的编排风格。
这种情况下,在开始音乐的播放之前,不一定需要从服务器获得编排信息,相反可在重放音乐的中间获得编排信息。音乐内容记录/重放设备可在实时获得编排信息的同时,进行重构处理(编排处理)。
在上面说明的实施例中,音乐内容存储单元由硬盘驱动器实现,并且将音乐内容的音频/视频数据和相关的属性信息与对应的音乐内容标识信息(音乐内容ID)关联地保存于其中。作为选择,如上所述,音乐内容存储单元也可由可移动的存储介质,比如DVD盘或光盘实现。
在上面说明的实施例中,每个内容和附属的对应的属性信息一起被保存在音乐内容存储单元中。作为选择,通过利用音乐内容ID作为搜索关键字进行搜索,可根据需要经因特网获得属性信息。在这种情况下,与因特网连接的服务器起属性信息存储单元的作用。
音乐内容的音频/视频数据和对应的属性信息不必被保存在相同的存储单元中,相反它们可被独立地保存在不同的存储单元中,只要借助诸如音乐内容ID之类的标识信息,可把它们正确地相互联系起来即可。
在上面说明的例子中,以记录/重放设备的形式实现本发明。可以以不具有记录能力的重放设备的形式来实现本发明。
图22-24中所示的重放处理只是一个例子,可以以各种方式进行重放处理。
例如,在上面说明的实施例中,只有当对正在播放的音乐的偏爱度较高时,才对音乐进行重构处理,包括诸如速度和/或音调的改变,重混,和效果的应用等。作为选择,可不考虑偏爱度,重构正在播放的音乐。
在上面说明的实施例中,音乐内容伴随有视频数据。当然,音乐内容不一定必须伴随有视频数据。
在上面说明的第一实施例中,将首先播放的一首音乐由用户指定。作为选择,将首先播放的一首音乐可由设备根据收听者的生物信息,环境信息,和/或重放历史信息自动选择。
例如,根据收听者的生物信息,判断收听者是处于兴奋状态还是平静状态,可将风格与检测到的状态相符的一首音乐或者具有相反风格的一首音乐选为将首先播放的音乐。根据环境信息,可检测当前位置,比如山或海滩,可按照包括在属性信息中的环境信息检测与所检测的当前位置匹配的一首音乐,并将其选为将首先播放的音乐。作为选择,可根据重放历史信息检测用户经常收听的一首音乐,并将其选为将首先播放的音乐。

Claims (8)

1.一种音乐内容重放设备,包括:
第一获取装置,用于从保存多个音乐内容的数据的音乐内容数据存储单元获得将重放的特定音乐内容的数据;
第二获取装置,用于从属性信息存储单元获得与音乐内容关联的属性信息,所述属性信息至少包括与音乐内容的每个音乐组成元素关联的音乐构成信息;
第三获取装置,用于获得与音乐内容关联并与音乐构成信息关联的编排信息;
提供对由第一获取装置获得的特定音乐内容数据的音频重放输出的装置;
编排请求命令接受装置,用于接受由收听者发出的编排请求命令;以及
重构装置,用于根据由第二获取装置获得的音乐构成信息,和由第三获取装置按照由编排请求命令接受装置接受的编排请求命令获得的编排信息,重构将作为音频重放输出数据输出的音乐内容的数据。
2.按照权利要求1所述的音乐内容重放设备,还包括:
主节奏单元,适合于产生同步信号,以及产生与同步信号同步的音乐重构信息,所述同步信号包括周期与音乐的小节对应的信号和周期与音乐的节拍对应的信号;和
从属节奏装置,用于通过按照从主节奏单元提供的同步信号和音乐重构信息,以及按照由第三获取装置获得的编排信息,重构由第一获取装置获得的供重放的特定音乐内容数据,产生输出音乐数据,并提供所得到的重构音乐数据的音频重放输出。
3.按照权利要求1所述的音乐内容重放设备,其中
编排信息保存在音乐内容重放设备的存储单元中,
第三获取装置适合于按照由编排请求命令接受装置接受的编排请求命令,从音乐内容重放设备的存储单元读取编排信息。
4.按照权利要求1所述的音乐内容重放设备,其中
第三获取装置适合于按照由编排请求命令接受装置接受的编排请求命令,通过通信网络,从保存编排信息的服务器获得编排信息。
5.按照权利要求1所述的音乐内容重放设备,其中
编排信息由收听者产生。
6.按照权利要求1所述的音乐内容重放设备,其中
编排请求命令接受装置包括指定编排类型的操作单元。
7.按照权利要求1所述的音乐内容重放设备,其中
编排请求命令接受装置包括盘形可变控制装置,以及其中
当沿一个方向移动盘形可变控制装置时,随着移动量的增大,音乐被编排成第一种编排类型的程度逐渐增大,而当沿着相反方向移动盘形可变控制装置时,随着移动量的增大,音乐被编排成第二种编排类型的程度逐渐增大。
8.一种音乐内容重放方法,包括:
第一获取步骤,其中从保存多个音乐内容的数据的音乐内容数据存储单元获得将重放的特定音乐内容的数据;
第二获取步骤,其中从属性信息存储单元获得与音乐内容关联的属性信息,所述属性信息至少包括与音乐内容的每个音乐组成元素关联的音乐构成信息;
第三获取步骤,其中获得与音乐内容关联并与音乐构成信息关联的编排信息;
提供对由第一获取装置获得的供重放的特定音乐内容数据的音频重放输出的步骤;
接受由收听者发出的编排请求命令的步骤;以及
根据在第二获取步骤中获得的音乐构成信息,和按照在编排请求命令接受步骤接受的编排请求命令在第三获取步骤中获得的编排信息,重构将作为音频重放输出数据输出的音乐内容的数据。
CN2006800124474A 2005-04-25 2006-04-05 音乐内容重放设备和音乐内容重放方法 Expired - Fee Related CN101160615B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005125920A JP4626376B2 (ja) 2005-04-25 2005-04-25 音楽コンテンツの再生装置および音楽コンテンツ再生方法
JP125920/2005 2005-04-25
PCT/JP2006/307191 WO2006114998A1 (ja) 2005-04-25 2006-04-05 音楽コンテンツの再生装置および音楽コンテンツ再生方法

Publications (2)

Publication Number Publication Date
CN101160615A true CN101160615A (zh) 2008-04-09
CN101160615B CN101160615B (zh) 2012-11-14

Family

ID=37214626

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006800124474A Expired - Fee Related CN101160615B (zh) 2005-04-25 2006-04-05 音乐内容重放设备和音乐内容重放方法

Country Status (6)

Country Link
US (1) US8269092B2 (zh)
EP (1) EP1876583B1 (zh)
JP (1) JP4626376B2 (zh)
KR (1) KR101233800B1 (zh)
CN (1) CN101160615B (zh)
WO (1) WO2006114998A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103578514A (zh) * 2012-08-01 2014-02-12 北大方正集团有限公司 歌曲播放方法和装置
CN103794205A (zh) * 2014-01-21 2014-05-14 深圳市中兴移动通信有限公司 自动合成适配音乐的方法及设备
CN105335507A (zh) * 2015-10-29 2016-02-17 维沃移动通信有限公司 一种推送歌曲的方法及装置
CN106471574A (zh) * 2014-06-30 2017-03-01 索尼公司 信息处理装置和信息处理方法
CN108668154A (zh) * 2017-03-30 2018-10-16 宏碁股份有限公司 用于移动载具的多媒体播放方法与系统
CN109144271A (zh) * 2018-09-07 2019-01-04 武汉轻工大学 三维空间音频关注度分析方法、系统、服务器及存储介质
CN110555126A (zh) * 2018-06-01 2019-12-10 微软技术许可有限责任公司 旋律的自动生成
WO2019242235A1 (zh) * 2018-06-22 2019-12-26 广州酷狗计算机科技有限公司 混音方法、装置及存储介质

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE43379E1 (en) * 2003-10-09 2012-05-15 Pioneer Corporation Music selecting apparatus and method
US20080022208A1 (en) * 2006-07-18 2008-01-24 Creative Technology Ltd System and method for personalizing the user interface of audio rendering devices
JP4623028B2 (ja) * 2007-03-20 2011-02-02 ヤマハ株式会社 曲編集装置およびプログラム
JP5259075B2 (ja) * 2006-11-28 2013-08-07 ソニー株式会社 マッシュアップ装置およびコンテンツの作成方法
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
TW200828077A (en) * 2006-12-22 2008-07-01 Asustek Comp Inc Video/audio playing system
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
KR101410928B1 (ko) * 2007-07-26 2014-06-23 삼성전자주식회사 음악 재생 장치의 사용자에게 추천할 음악을 결정하는 방법및 이를 위한 장치
US7804016B2 (en) * 2007-07-26 2010-09-28 Samsung Electronics Co, Ltd. Method and device for selecting music to be recommended for user by using music reproduction device
JP5181640B2 (ja) * 2007-12-03 2013-04-10 ソニー株式会社 情報処理装置、情報処理端末、情報処理方法、およびプログラム
WO2009138425A1 (en) * 2008-05-16 2009-11-19 Tonium Ab Audio mix instruction file with timing information referring to unique patterns within audio tracks
US8558100B2 (en) * 2008-06-24 2013-10-15 Sony Corporation Music production apparatus and method of producing music by combining plural music elements
US8347210B2 (en) * 2008-09-26 2013-01-01 Apple Inc. Synchronizing video with audio beats
WO2010041147A2 (en) * 2008-10-09 2010-04-15 Futureacoustic A music or sound generation system
JP2010262723A (ja) * 2009-05-11 2010-11-18 Pioneer Electronic Corp 再生装置、プレーヤー、再生装置の再生履歴情報記録方法、プレーヤーの再生履歴情報記録方法およびプログラム
GB2483409A (en) * 2009-06-01 2012-03-07 Starplayit Pty Ltd Music game improvements
JP2010282160A (ja) * 2009-06-08 2010-12-16 Yamaha Corp 音楽コンテンツ処理装置及びプログラム
US10254824B2 (en) * 2009-10-16 2019-04-09 Immersion Corporation Systems and methods for output of content based on sensing an environmental factor
KR101594391B1 (ko) * 2009-10-22 2016-02-16 삼성전자주식회사 휴대용 멀티미디어 재생기에서 사용자 경험에 기반한 멀티미디어 재생 목록 생성방법 및 장치
JP2012015809A (ja) * 2010-06-30 2012-01-19 Kddi Corp 楽曲選択装置、楽曲選択方法および楽曲選択プログラム
CN102412920B (zh) * 2010-09-20 2015-04-29 阿尔派株式会社 电子设备及其控制方法
JP5594052B2 (ja) * 2010-10-22 2014-09-24 ソニー株式会社 情報処理装置、楽曲再構成方法及びプログラム
US9514481B2 (en) * 2010-12-20 2016-12-06 Excalibur Ip, Llc Selection and/or modification of an ad based on an emotional state of a user
JP5853371B2 (ja) * 2011-01-25 2016-02-09 ヤマハ株式会社 楽音合成装置およびプログラム
US20120224828A1 (en) * 2011-02-08 2012-09-06 Stephen Silber Content selection
US9448713B2 (en) 2011-04-22 2016-09-20 Immersion Corporation Electro-vibrotactile display
CN102956230B (zh) * 2011-08-19 2017-03-01 杜比实验室特许公司 对音频信号进行歌曲检测的方法和设备
JP5614422B2 (ja) * 2012-03-19 2014-10-29 ブラザー工業株式会社 運動支援装置、運動支援方法、及び、プログラム
US9552607B2 (en) * 2012-03-21 2017-01-24 Beatport, LLC Systems and methods for selling sounds
CN103514432B (zh) 2012-06-25 2017-09-01 诺基亚技术有限公司 人脸特征提取方法、设备和计算机程序产品
EP2868112A4 (en) * 2012-06-29 2016-06-29 Nokia Technologies Oy SYSTEM FOR VIDEO MIX
JP2014010275A (ja) * 2012-06-29 2014-01-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
JP5980931B2 (ja) * 2012-08-23 2016-08-31 パイオニア株式会社 コンテンツ再生方法、コンテンツ再生装置およびプログラム
JP5980930B2 (ja) * 2012-08-23 2016-08-31 パイオニア株式会社 コンテンツ再生方法、コンテンツ再生装置、コンテンツ再生システムおよびプログラム
US8869031B1 (en) * 2012-08-27 2014-10-21 Zynga Inc. Scaling intro music
EP2793222B1 (en) * 2012-12-19 2018-06-06 Bellevue Investments GmbH & Co. KGaA Method for implementing an automatic music jam session
US10016650B2 (en) * 2013-02-08 2018-07-10 Excel Equipment Llc Systems and methods for target training including synchronized music
EP2765573B1 (en) * 2013-02-08 2016-08-03 Native Instruments GmbH Gestures for DJ scratch effect and position selection on a touchscreen displaying dual zoomed timelines.
US9939900B2 (en) 2013-04-26 2018-04-10 Immersion Corporation System and method for a haptically-enabled deformable surface
US9639158B2 (en) 2013-11-26 2017-05-02 Immersion Corporation Systems and methods for generating friction and vibrotactile effects
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
CN104298722B (zh) * 2014-09-24 2018-01-19 张鸿勋 多媒体交互系统及其方法
US9535550B2 (en) 2014-11-25 2017-01-03 Immersion Corporation Systems and methods for deformation-based haptic effects
CN104778216B (zh) * 2015-03-20 2017-05-17 广东欧珀移动通信有限公司 一种预设风格歌曲处理的方法及装置
JP5896064B2 (ja) * 2015-03-25 2016-03-30 ヤマハ株式会社 楽音合成装置およびプログラム
US20170019471A1 (en) * 2015-07-13 2017-01-19 II Paisley Richard Nickelson System and method for social music composition
US10318233B2 (en) 2016-09-23 2019-06-11 Sonos, Inc. Multimedia experience according to biometrics
CN106453051A (zh) * 2016-10-10 2017-02-22 深圳万发创新进出口贸易有限公司 多媒体交互系统
TWI633784B (zh) * 2017-03-15 2018-08-21 宏碁股份有限公司 用於移動載具的多媒體播放方法與系統
GB201721061D0 (en) * 2017-12-15 2018-01-31 Pob Enterprises Ltd System for processing music
US10803843B2 (en) 2018-04-06 2020-10-13 Microsoft Technology Licensing, Llc Computationally efficient language based user interface event sound selection
US10714065B2 (en) * 2018-06-08 2020-07-14 Mixed In Key Llc Apparatus, method, and computer-readable medium for generating musical pieces
CN110658979B (zh) * 2018-06-29 2022-03-25 杭州海康威视系统技术有限公司 一种数据重构方法、装置、电子设备及存储介质
US11127386B2 (en) * 2018-07-24 2021-09-21 James S. Brown System and method for generating music from electrodermal activity data
GB2581319B (en) * 2018-12-12 2022-05-25 Bytedance Inc Automated music production
CN115885276A (zh) * 2020-08-21 2023-03-31 艾米有限公司 用于音乐生成器的比较训练
WO2023225448A2 (en) * 2022-05-18 2023-11-23 Sonos, Inc. Generating digital media based on blockchain data

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3245890B2 (ja) * 1991-06-27 2002-01-15 カシオ計算機株式会社 拍検出装置及びそれを用いた同期制御装置
US5304112A (en) 1991-10-16 1994-04-19 Theresia A. Mrklas Stress reduction system and method
JP3013648B2 (ja) * 1993-03-23 2000-02-28 ヤマハ株式会社 自動編曲装置
JP3239672B2 (ja) * 1995-02-15 2001-12-17 ヤマハ株式会社 自動演奏装置
US5693902A (en) * 1995-09-22 1997-12-02 Sonic Desktop Software Audio block sequence compiler for generating prescribed duration audio sequences
JP3707122B2 (ja) * 1996-01-29 2005-10-19 ヤマハ株式会社 スタイル変更装置およびカラオケ装置
JP3846122B2 (ja) * 1999-09-17 2006-11-15 ヤマハ株式会社 再生制御装置と媒体
JP3087757B2 (ja) * 1999-09-24 2000-09-11 ヤマハ株式会社 自動編曲装置
AT500124A1 (de) * 2000-05-09 2005-10-15 Tucmandl Herbert Anlage zum komponieren
KR100867760B1 (ko) * 2000-05-15 2008-11-10 소니 가부시끼 가이샤 재생장치, 재생방법 및 기록매체
DE60045001D1 (de) * 2000-07-04 2010-11-04 Sony France Sa Vorrichtung und Verfahren zur inkrementellen Fertigstellung von Sequenzen von Musiktitel-Elementen
KR100516403B1 (ko) * 2000-10-23 2005-09-23 에누티티 코뮤니케-숀즈 가부시키가이샤 악곡인식방법 및 시스템 및 악곡인식 프로그램을 저장한기억매체 및 커머셜 인식방법 및 시스템 및 커머셜 인식프로그램을 저장한 기억매체
JP2002169550A (ja) * 2000-11-30 2002-06-14 Victor Co Of Japan Ltd 楽曲データ作成装置
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
JP2002091438A (ja) * 2001-08-09 2002-03-27 Yamaha Corp 自動演奏装置
US6683241B2 (en) 2001-11-06 2004-01-27 James W. Wieder Pseudo-live music audio and sound
JP2003173350A (ja) 2001-12-05 2003-06-20 Rainbow Partner Inc 音楽・映像コンテンツを推薦するシステム
JP4303485B2 (ja) * 2003-01-27 2009-07-29 株式会社音楽館 楽曲編成システム、楽曲編成システムの制御方法、プログラム及び楽曲編成方法
US7208672B2 (en) 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
JP2006171133A (ja) * 2004-12-14 2006-06-29 Sony Corp 楽曲データ再構成装置、楽曲データ再構成方法、音楽コンテンツ再生装置および音楽コンテンツ再生方法
US20070261537A1 (en) * 2006-05-12 2007-11-15 Nokia Corporation Creating and sharing variations of a music file
US8311656B2 (en) * 2006-07-13 2012-11-13 Inmusic Brands, Inc. Music and audio playback system
US8618404B2 (en) * 2007-03-18 2013-12-31 Sean Patrick O'Dwyer File creation process, file format and file playback apparatus enabling advanced audio interaction and collaboration capabilities
US8173883B2 (en) * 2007-10-24 2012-05-08 Funk Machine Inc. Personalized music remixing
US20100075806A1 (en) * 2008-03-24 2010-03-25 Michael Montgomery Biorhythm feedback system and method

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103578514A (zh) * 2012-08-01 2014-02-12 北大方正集团有限公司 歌曲播放方法和装置
CN103794205A (zh) * 2014-01-21 2014-05-14 深圳市中兴移动通信有限公司 自动合成适配音乐的方法及设备
CN106471574A (zh) * 2014-06-30 2017-03-01 索尼公司 信息处理装置和信息处理方法
CN105335507A (zh) * 2015-10-29 2016-02-17 维沃移动通信有限公司 一种推送歌曲的方法及装置
CN108668154A (zh) * 2017-03-30 2018-10-16 宏碁股份有限公司 用于移动载具的多媒体播放方法与系统
CN110555126A (zh) * 2018-06-01 2019-12-10 微软技术许可有限责任公司 旋律的自动生成
CN110555126B (zh) * 2018-06-01 2023-06-27 微软技术许可有限责任公司 旋律的自动生成
US11705096B2 (en) 2018-06-01 2023-07-18 Microsoft Technology Licensing, Llc Autonomous generation of melody
WO2019242235A1 (zh) * 2018-06-22 2019-12-26 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
US11315534B2 (en) 2018-06-22 2022-04-26 Guangzhou Kugou Computer Technology Co., Ltd. Method, apparatus, terminal and storage medium for mixing audio
CN109144271A (zh) * 2018-09-07 2019-01-04 武汉轻工大学 三维空间音频关注度分析方法、系统、服务器及存储介质

Also Published As

Publication number Publication date
EP1876583A1 (en) 2008-01-09
CN101160615B (zh) 2012-11-14
KR20070122452A (ko) 2007-12-31
KR101233800B1 (ko) 2013-02-18
EP1876583B1 (en) 2014-07-16
US8269092B2 (en) 2012-09-18
US20090088877A1 (en) 2009-04-02
EP1876583A4 (en) 2012-05-09
WO2006114998A1 (ja) 2006-11-02
JP4626376B2 (ja) 2011-02-09
JP2006301471A (ja) 2006-11-02

Similar Documents

Publication Publication Date Title
CN101160615B (zh) 音乐内容重放设备和音乐内容重放方法
CN101080763B (zh) 乐曲数据重构装置及方法、音乐内容重放装置及方法
JP4713129B2 (ja) 音楽コンテンツの再生装置、音楽コンテンツの再生方法および音楽コンテンツおよびその属性情報の記録装置
CN101326569B (zh) 音乐编辑设备和音乐编辑方法
US8173883B2 (en) Personalized music remixing
JP5432264B2 (ja) コレクションプロファイルの生成及びコレクションプロファイルに基づく通信のための装置及び方法
EP1650632A2 (en) Information processing apparatus and method, recording medium, program, and information processing system
JP2002202982A (ja) 情報シーケンス保存装置及び情報シーケンス保存方法
JP2006084749A (ja) コンテンツ生成装置およびコンテンツ生成方法
JP2006511845A (ja) オーディオ信号の配列
JP3956411B2 (ja) カラオケ装置
CN103718243A (zh) 增强的媒体录制和回放
JP2006127574A (ja) コンテンツ利用装置、コンテンツ利用方法、配信サーバー装置、情報配信方法および記録媒体
JP5141195B2 (ja) 情報処理装置、楽曲配信システム、楽曲配信方法およびコンピュータプログラム
US20220188062A1 (en) Skip behavior analyzer
JP2012018282A (ja) 演奏ファイル管理装置、演奏ファイル再生装置および演奏ファイル再生方法
Cliff hpDJ: An automated DJ with floorshow feedback
WO2019115987A1 (en) System for processing music
JP6611633B2 (ja) カラオケシステム用サーバ
JP6699137B2 (ja) データ管理装置、コンテンツ再生装置、コンテンツ再生方法、及びプログラム

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121114

Termination date: 20150405

EXPY Termination of patent right or utility model