CN101014994A - 内容生成设备和内容生成方法 - Google Patents

内容生成设备和内容生成方法 Download PDF

Info

Publication number
CN101014994A
CN101014994A CNA2005800304487A CN200580030448A CN101014994A CN 101014994 A CN101014994 A CN 101014994A CN A2005800304487 A CNA2005800304487 A CN A2005800304487A CN 200580030448 A CN200580030448 A CN 200580030448A CN 101014994 A CN101014994 A CN 101014994A
Authority
CN
China
Prior art keywords
information
content
data
additional data
material data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2005800304487A
Other languages
English (en)
Inventor
宫岛靖
山下功诚
高井基行
佐古曜一郎
寺内俊郎
佐佐木彻
酒井祐市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101014994A publication Critical patent/CN101014994A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/04Sound-producing devices
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/022Electronic editing of analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/071Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for rhythm pattern analysis or rhythm style recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/081Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for automatic key or tonality recognition, e.g. using musical rules or a knowledge base
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/265Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
    • G10H2210/295Spatial effects, musical uses of multiple audio channels, e.g. stereo
    • G10H2210/305Source positioning in a soundscape, e.g. instrument positioning on a virtual soundstage, stereo panning or related delay or reverberation changes; Changing the stereo width of a musical source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/311Distortion, i.e. desired non-linear audio processing to change the tone color, e.g. by adding harmonics or deliberately distorting the amplitude of an audio waveform
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/571Chords; Chord sequences
    • G10H2210/576Chord progression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/351Environmental parameters, e.g. temperature, ambient light, atmospheric pressure, humidity, used as input for musical purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/371Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information
    • G10H2220/376Vital parameter control, i.e. musical instrument control based on body signals, e.g. brainwaves, pulsation, temperature, perspiration; biometric information using brain waves, e.g. EEG
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/155User input interfaces for electrophonic musical instruments
    • G10H2220/395Acceleration sensing or accelerometer use, e.g. 3D movement computation by integration of accelerometer data, angle sensing with respect to the vertical, i.e. gravity sensing.
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/056MIDI or other note-oriented file format
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/081Genre classification, i.e. descriptive metadata for classification or selection of musical pieces according to style
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/541Details of musical waveform synthesis, i.e. audio waveshape processing from individual wavetable samples, independently of their origin or of the sound they represent
    • G10H2250/641Waveform sampler, i.e. music samplers; Sampled music loop processing, wherein a loop is a sample of a performance that has been edited to repeat seamlessly without clicks or artifacts

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

通过使用作为素材准备的各种形式的声音内容数据,能容易地生成新的高质量声音内容。在素材数据存储装置部分(31)中准备用作素材数据的大量声音内容数据。附加数据被随附于素材数据并被存储在素材数据库存储部分(32)中。控制部分(10)基于由接收部分(20)接收的外部信息和存储在重构规则数据库存储部分(33)中的规则信息之一或此两者来通过附加数据从素材数据存储部分(31)中提取必要的素材数据以生成新的音乐作品。

Description

内容生成设备和内容生成方法
技术领域
本发明涉及一种使用例如通过将乐曲细分成音乐声部或小节所得到的音频内容数据作为素材来生成关于新乐曲(音频内容)的音频内容数据。
背景技术
近来便携式的硅音频播放器和硬盘音乐播放器的出现允许将几百至几万首乐曲(音乐内容)记录在一个回放设备中的记录介质里以回放所记录的乐曲。用户已经能够携带记录在他们自己的播放器中的偏`的乐曲并在任何时间听回放的所记录的乐曲。
将许多乐曲记录在记录介质中以使这些乐曲被回放使得用户能长时间享受听音乐的乐趣。另外,随机改变所要回放的乐曲的次序的所谓混洗(shuffle)回放使用户能以意想不到的次序听这些乐曲,从而使得用户不至于厌倦这些乐曲。然而,这样的音频播放器只回放预先记录的乐曲,并且尽管乐曲的数目增加了,但是一首一首来看的话,每次仍是回放相同的声音。
还已知有诸如自动作曲软件(自动作曲程序)等计算机软件。使用这种计算机软件,用户输入例如乐曲的氛围或他们的生日等情况就足以来作曲。例如,日本未审专利申请特开2002-117069号公报中公开了一种从数据库中的音乐项(要用作素材的音频数据)生成任意长度的合适的音乐序列(音频数据序列)的方法。
用户能通过个人计算机使用这种自动作曲软件来容易且自由地创作原创音频内容并享受听回放的音频内容的乐趣。
然而,因为上述自动作曲软件只对每个音调生成一个音符或只是将预定的素材加以组合,所以难以作成让用户观众感觉“极好的”高质量乐曲(音频内容)。另外,因为操作在个人计算机中调用的自动作曲软件很复杂或很困难,所以对于不熟悉个人计算机的用户来说很难使用该自动作曲软件。
大多数自动作曲软件使用乐器数字接口(MIDI)数据来作曲,因此,在自动作曲软件中存在限制。例如,在自动作曲软件的情形中,乐器的音色缺乏真实感,或不能回放人的自然嗓音。即使提高了真实感,自动作曲软件所作的乐曲在用户知道这些乐曲不是人演奏的时候常常不能唤起用户的感动。
因此,本发明的一个目的是提供一种能以各种模式将音频内容数据用作素材来容易地生成新的高质量的音频内容的设备和方法。
发明内容
为了解决上述问题,根据本发明的一种内容生成设备包括:素材存储装置,用于存储用作素材的多个音频内容数据;以及附加数据存储装置,用于存储随附于每一个音乐内容数据并且起到索引/构成信息作用的附加数据。该内容生成设备还包括以下各项中的至少一个:接收装置,用于接收外部信息;以及规则存储装置,用于存储在从多个音频内容数据中提取必要的数据来构成新音频内容的构成处理中所使用的规则信息。该内容生成设备还包括:构成装置,用于在由接收装置接收的外部信息和规则存储装置中的规则信息中的至少一个的基础上根据附加数据存储装置中的附加数据从素材存储装置提取必要的音频内容数据并执行构成处理来生成新音频内容。
根据本发明的该内容生成设备,在素材存储装置中预先准备例如通过将关于乐曲的内容数据细分成乐器声部或小节所提供的用作素材的多个音频内容数据。起到索引/构成信息的作用的附加数据被随附于用作素材的每一个音频内容数据,并被存储在附加数据存储装置中。
构成装置在由接收装置接收的外部信息和存储在规则存储装置中的规则信息中的至少一个的基础上根据附加数据从素材存储装置提取用作素材的多个音频内容数据。构成装置使用所提取的音频内容数据来构成(生成)用于新乐曲的一系列音频内容数据并且使用所生成的音频内容数据。
根据本发明,以各种模式使用预先作为素材准备的音频内容数据使得能容易地作成和使用新的高质量乐曲。此外,响应于例如外部信息的变化,每次可生成和使用新的乐曲。
另外,能响应于来自用户的指令实时地变化乐曲并且甚至从少量的素材作成许多乐曲。因此,从根本上改变了如在公知的CD(光盘)中那样的重复欣赏相同的记录的乐曲的方式,以向用户提供一种享受音乐的新方式。
附图说明
图1是示意地示出根据本发明的一种设备和方法的图。
图2是示出应用了本发明的一个实施例的回放设备的框图。
图3包括示出重构处理的一个具体例子的图。
图4A示出重构处理的一个具体例子。
图4B示出重构处理的另一具体例子。
图4C示出重构处理的另一具体例子。
图4D示出重构处理的另一具体例子。
图5示出重构处理的一个具体例子。
图6示出重构处理的一个具体例子。
图7包括示出重构处理的一个具体例子的图。
图8是示出重构规则数据库中的一部分信息的表。
图9是示出在图2中示出的回放设备中进行的重构(作成)新乐曲的处理的流程图。
具体实施方式
现在将参照附图来说明根据本发明的设备和方法的诸实施例。在以下说明的诸实施例中,将以根据本发明的设备和方法被应用于回放诸如各种乐曲等音频内容数据的音频回放设备(下文简称为回放设备)为例。
[回放设备的概要]
图1是示意地示出应用了根据本发明的设备和方法的回放设备。根据该实施例的回放设备是例如便携式音频回放设备。如图1所示,根据该实施例的回放设备包括:许多素材数据1,它是用于作成(构成)乐曲的音频内容数据;重构规则数据库2,它是包括预先确定的重构规则信息(规则信息)的数据库;以及重构算法3,它描述预先确定的重构处理。素材数据1是可以细分乐曲所得到的能以诸如乐器声部或小节等预定单位使用的音频内容数据。
根据该实施例的回放设备还包括用于接收包括温度和湿度在内的环境信息、包括回放设备的用户的心跳和皮肤温度在内的生物信息、以及包括来自用户的输入操作信息在内的外部信息的接收单元4。在回放中,根据该实施例的回放设备在用接收单元4接收的各种外部信息和重构规则数据库中的规则信息的基础上根据重构算法3从许多素材数据1中提取必要的素材数据,并重构所提取的素材数据,从而作成(重构)一首新乐曲(音频内容)以回放所作成(重构)的乐曲(音频内容)。
具体而言,作为存储完整的乐曲来简单地回放所存储的乐曲的替代,根据该实施例的回放设备存储许多个素材数据,即音频内容数据,从这许多个素材数据中提取必要的素材数据,并重构所提取的素材数据,从而作成一首新乐曲以回放所作成的乐曲。
[回放设备的构造和操作]
现在将描述根据该实施例的回放设备的构造和操作。图2是示出根据该实施例的回放设备的框图。如图2中所示,根据该实施例的回放设备主要包括:控制单元10、接收单元20、存储装置单元30、显示装置单元40以及输出单元50。
控制单元10是其中将CPU(中央处理单元)11、ROM(随机存取存储器)12和RAM(只读存储器)13通过CPU总线14彼此连接的微机。控制单元10控制根据该实施例的回放设备中的部件并执行各种数据处理,例如,从素材数据作成新乐曲等。
接收单元20包括:生物信息传感器21、A/D(模数)转换器22、环境信息传感器23、A/D转换器24以及输入装置25。接收单元20接收包括生物信息、感性信息、环境信息和输入操作信息在内的各种外部信息,并向控制单元10提供所接收到的外部信息。输入装置25用于接收用户的输入,并且包括:称为键盘的键操作部分、诸如鼠标、按钮和触板等定位装置。
存储装置单元30包括作成新乐曲(音频内容数据)所需的数据和程序。根据该实施例的回放设备中的存储装置单元30是例如硬盘。内置式硬盘包括:素材数据存储装置31、素材数据库存储装置32、重构规则数据库存储装置33、算法实现程序存储装置34等,以存储各种信息。
显示装置单元40包括:诸如LCD(液晶显示器)、PDP(等离子显示面板)、有机EL(有机电致发光面板)或CRT(阴极射线管)等显示元件和用于该显示元件的控制器等。包括各种消息信息的图像信息被显示在显示装置单元40上。输出单元50包括音频输出装置51和D/A(数模)转换器52。输出单元50输出与在根据该实施例的回放设备中作为声音新生成(构成)的音频内容数据相对应的乐曲。
根据该实施例的回放设备中的存储装置单元30中的素材数据存储装置31包括许多个音频内容数据,即用于构成新乐曲的素材数据。通过将关于乐曲的音频内容数据细分成例如如上所述的乐器声部或小节来生成音频内容数据,即素材数据。素材数据可以通过例如只新记录预定乐器声部来独立生成,并且所生成的素材数据可以被存储。
素材数据库存储装置32包括标识符和与这些标识符相关联的附加数据。这些标识符可用于标识素材数据存储装置31中所存储的素材数据。附加数据被随附于每个素材数据。素材数据库存储装置32中的附加数据使用预定标识符与素材数据存储装置31中的素材数据相关联。可以从附加数据标识素材数据或者可以从素材数据标识与该素材数据相应的附加数据。
重构规则数据库存储装置33包括重构规则信息(规则信息)等。重构规则信息指示使用哪个素材数据以及何时及如何将该素材数据用于执行重构以作成新乐曲。重构中的“重”不是指“再次再现同一事物”,而是指新乐曲的构成的“重复”。
算法实现程序存储装置34包括在构成乐曲时要执行的程序。诸程序中的算法还可以用于改变或调节使用素材数据的时间、素材数据的内容以及使用素材数据的方式。
虽然图2中的回放设备中只设置了一个存储装置单元30,但是素材数据存储装置31、素材数据库存储装置32、重构规则数据库存储装置33和算法实现程序存储装置34可以分布在多个存储装置单元(记录介质)中。具体来说,素材数据存储装置31、素材数据库存储装置32、重构规则数据库存储装置33和算法实现程序存储装置34可以被设置在不同存储装置单元(记录介质)中,或它们中的一些可以被设置在同一存储装置单元中。
在根据该实施例的回放设备中,当通过与控制单元10连接的输入装置25从用户接收到音频回放指令时,通过生物信息传感器21接收到的生物信息和关于用户的动作的信息通过A/D转换器22提供给控制单元10。通过环境信息传感器23接收到的环境信息通过A/D转换器24提供给控制单元10。通过输入装置25接收到的来自用户的输入信息也被提供给控制单元10。
控制单元10中的CPU11读出并执行存储在存储装置单元30中的算法实现程序存储装置34中的算法,以在将素材的属性和包括来自输入装置25的输入信息在内的外部信息和来自生物信息传感器21和环境信息传感器23的输入信息与重构规则数据库中的信息相比较的同时,根据该算法从素材数据存储装置31中提取必要的素材数据。CPU11基于上述算法和重构规则数据库存储装置33中的规则信息来重构所提取的素材数据(音频内容数据)以作成新乐曲。
但是,如后面所描述的,也可以通过素材数据库存储装置32提取具有相同附加数据的多个素材数据,并且可以根据重构规则数据库存储装置33中的规则信息来处理所提取的素材数据以作成新乐曲并回放所作的乐曲。换言之,根据该实施例的回放设备能通过素材数据库存储装置32或重构规则数据库存储装置33从存储装置单元30中的多个素材数据中提取必要的素材数据,并且能根据重构规则数据库存储装置33和重构算法来处理所提取的素材数据以作成(构成)新乐曲(音频内容)并回放所构成的乐曲。
[附加数据的详细说明]
现在将描述随附于根据该实施例的回放设备中所使用的素材数据的附加数据。表示属性的附加数据被随附于每一个音频内容数据,即素材数据,以灵活地使用预先存储在素材数据存储装置31中的素材数据来自由地作成新乐曲。
换言之,附加数据用作用于从多个素材数据中提取目标素材数据的索引。附加数据被存储在图2中所示的回放设备中的存储装置单元30中的素材数据库存储装置32中,并且根据附加数据提取目标素材数据以将目标素材数据用于构成新乐曲。现在将详细描述随附于音频内容数据即素材数据的附加数据。
附加数据大致分成(1)关于作为素材数据的音频内容数据的乐音信息(乐曲信息)和时间信息、(2)关于作为素材数据的音频内容数据的个人信息、(3)感性信息、(4)环境信息、以及(5)生物信息。现在将描述这五类附加数据中的每一类。
(1)关于作为素材数据的音频内容数据的乐音信息和时间信息
(1)中的附加数据包括关于素材数据的乐音信息和与该乐音信息相关联的时间信息。时间信息指示乐音信息有多长。乐音信息涉及通过回放素材数据所得到的乐音(声音)。具体而言,乐音信息包括与通过回放素材数据得到的声音有关的音阶(调)、和弦、节拍、每分钟拍数(BPM)、拍子信息(鼓点模式)、拍子、小节数、音量、音符和休止符信息、循环信息、风格信息、乐器信息以及地域信息等。
音阶(调)指根据C大音阶或乐曲的基调的位置确定的乐曲的特性,诸如C大调或D大调等。和弦指乐曲的和弦,诸如“C”、“Am”或“Em7”等。当音阶或和弦在作为素材数据的音频内容数据的中途变更时,还将包括关于变更的音阶或和弦的位置信息或时间信息(从数据的起始的偏移量信息)。
节拍指乐曲的速度。BPM指如上所述的每分钟的拍数。这里拍子信息指鼓的节奏模式(鼓点模式)。对于每分钟120拍,BPM被表示为“120BPM”。节奏模式包括何处或何时加入Buss鼓或小军鼓的击打声的位置或时间信息(从数据的起始的偏移量信息)。
拍子指乐曲中的一组旋律所基于的拍数,诸如2拍子或3拍子等。例如,拍子被表示为3/4拍子或4/4拍子。小节数指上述拍子中有多少小节。例如,小节数被表示为一小节或两小节。
音量(峰值或响度)指声音的响度的峰值或强度(级)。音量能用于对每个素材数据统一音量的变更。音符和休止符信息指通过回放用MML(音乐宏语言)或MIDI信号记述的素材数据所得到的声音中的音符和休止符。例如,该音符和休止符信息用于提取关于素材数据的音符和休止符的信息。
循环信息指素材数据能被循环(loop)还是只被播放一次(单发)。如果诸素材数据(音频内容数据)的起始与其结尾连续地接合,则能循环使用的素材数据不产生噪声,不造成节拍中断,并且不产生不自然的声音。
风格信息是指示素材数据所属的风格——诸如爵士、摇滚或Techno(科技)等的值或字符串。乐器信息指示所使用的乐器的类型,诸如节奏乐器(鼓或打击乐器)、吉他、贝司吉他或钢琴等。因为在鼓乐器或特别是没有音阶的效果声的情形中不必改变音高(往往是不应改变音高),所以能基于乐器信息来确定素材数据是否适应音高变更。在重构时,乐器信息还能用于确定乐器的平衡或类型。
地域信息指示与素材数据密切关联的任何地域,诸如印尼、冲绳或英国等。例如,地域信息用于标识印尼的加麦兰音乐的素材数据或具有冲绳音阶的素材数据。
使用各种乐音信息与指示该乐音信息的持续时间的时间信息的组合作为附加数据的一部分就能准确了解素材数据产生哪种声音及素材数据发声的时间长度,即各素材数据的属性或特性,并能适当地处理素材数据。
(2)关于作为素材数据的音频内容数据的个人信息
(2)中的个人信息包括:作曲者信息、演奏者信息、录音者信息和素材群组信息。作曲者信息指示通过回放素材数据所得到的旋律的作曲者。作曲者信息可在例如仅收集某个作曲者的素材数据来构成新乐曲时使用。作曲者信息可用于以作曲者的名字、艺名或笔名来标识作曲者。然而,作曲者信息的使用不限于上述。作曲者信息可包括诸如作曲者所属的团体的名称、指示他/她家乡或他/她活动的主要区域的地域信息以及作曲者的年龄和性别等关于作曲者的各种信息。
演奏者信息指示实际演奏通过回放素材数据所得到的旋律的演奏者。演奏者信息可在例如仅收集某个演奏者的素材数据来构成乐曲时使用。演奏者信息还能用于以演奏者的名字或艺名来标识演奏者。然而,演奏者信息的使用不限于上述。演奏者信息可包括诸如演奏者所属的团体的名称、指示他/她家乡或他/她活动的主要区域的地域信息以及演奏者的年龄和性别等关于演奏者的各种信息。
录音者信息涉及录音素材数据的录音工程师。录音者信息可在例如仅收集某个录音工程师所录的素材来构成乐曲时使用。录音者信息还能用于以录音者的名字或艺名来标识录音者。然而,录音者信息的使用不限于上述。录音者信息可包括诸如录音者所属的团体的名称、指示他/她家乡或他/她活动的主要区域的地域信息以及录音者的年龄和性别等关于录音者的各种信息。
素材群组信息指示诸如冲绳民谣或打击乐器组等素材数据的组。素材数据可以单独提供或可以作为多个素材的档案来提供。素材组信息由用于标识素材数据所属的组的标识符或字符串来表示。使用对素材组信息的使用允许使用某一素材组来构成乐曲。
(3)感性信息
(3)中的感性信息被随附来在人的主观感性的基础上分类的素材数据。感性信息指示诸如“高兴”或“悲伤”等通过回放素材数据所产生的声音给予听众的印象,或指示“适合主旋律”、“适合序曲”或“适合背景音乐”。
感性信息可以通过在系统中预先设置的印象或感觉的分类或与对应于分类的分数来表示。例如,感性信息由“高兴:7”或“悲伤:8”来表示。或者,感性信息可以由系统或用户能解释的任意字符串或关键字来表示。使用感性信息,可以只使用具有感性信息“高兴而活跃”的素材数据来构成新乐曲或只使用具有感性信息“悲伤”的素材数据来构成新乐曲。
因为上述感性信息是主观的,由素材数据的提供者预先设置的感性信息(设置为值或字符串的感性信息)可能不可应用于实际使用素材数据的用户。因此,使感性信息由使用素材数据的用户更新。换言之,使涉及存储在素材数据库存储装置32中的素材数据的感性信息用回放设备中的输入装置25来更新。这使得能对素材数据设置与用户的感觉相匹配的感性信息。
(4)环境信息
(4)中的环境信息涉及与素材数据期望地关联的环境。环境信息基本上通过素材数据的提供者的决定来随附。如在上述感性信息中,使环境信息由使用素材数据的用户来更新。
为了简化对环境信息的说明,环境信息在以下描述中被分成下列几类。环境信息被大致分成5类:气候和时间信息、动作信息、位置信息、关系信息和其它信息。
气候和时间信息指示通过回放素材数据所产生的声音的属性并且涉及气候和时间。具体来说,气候和时间信息指示:温度、湿度、天气、风速、日期、时刻、季节、降雪量、降雨量等。例如,当通过回放素材数据所产生的声音唤起“夏天的晴朗的夜晚”的画面时,则指示“季节:夏天”、“天气:晴朗”以及“时间:夜晚”的气候和时间信息被随附于素材数据。当通过回放素材数据所产生的声音唤起“闷热的夜晚”的画面时,则指示“温度:相对较高”、“湿度:高”以及“时间:夜晚”的气候和时间信息被随附于素材数据。
动作信息指通过回放素材数据所产生的声音的属性并且涉及移动。具体来说,动作信息指示:移动速度、加速度、振动、重力变化等。例如,当通过回放素材数据所产生的声音具有“具有速度感的快节奏”时,声音可以通过将移动速度和振动的参数设置成适当的值来表示。
位置信息指通过回放素材数据所产生的声音的属性并且涉及位置。具体来说,位置信息指示:纬度、经度、地图信息、周围物体信息、海拔等。  例如,地图信息或周围物体信息的使用使得能将属性“靠近海”或“涩谷一带”随附于素材数据。
关系信息指示通过回放素材数据所产生的声音的属性并且涉及人(人与人之间的关系)或组织。具体来说,关系信息指示具有某种关系的人或组织。例如,可能将涉及包括“与恋人在一起”、“与家人在一起”、“在拥挤的列车中”的情形的信息随附于素材数据。
除了上述信息之外,其它信息还包括诸如月龄、气味、环境噪声等级和大气污染程度和环境色等各种信息。例如,当通过回放素材数据所产生的声音具有印度旋律时,“咖喱”的环境信息被作为气味随附于素材数据。
上述各种信息可以由字符串表示或可以被数字化。
(5)生物信息
如在上述环境信息中,(5)中的生物信息涉及与通过回放素材数据所产生的声音期望地关联的生物信息并且由素材数据的提供者随附。具体来说,生物信息指示:排汗、心搏、脉波、呼吸、眨眼、眼球运动、凝视时间、瞳孔大小、血压、脑电波、肢体动作、体位、皮肤温度、皮肤电阻、微小振动(MV)、肌电位、血氧水平(SPO2)等。
例如,当通过回放素材数据所产生的声音唤起画面“保持安静”时,心搏、脉波和呼吸被设置成较低值。当通过回放素材数据所产生的声音唤起画面“心怦怦跳”时,心搏、脉波和呼吸被设置成较高值。另外,当声音唤起“紧张感觉”的画面时,凝视时间增加,或当声音唤起“激烈运动”的画面时,肢体动作被设置成指示激烈状态的值。
和感性信息和环境信息中一样,使生物信息由使用素材数据的用户在他/她自己的感觉或主观性的基础上更新。
如上所述,在根据该实施例的回放设备中,(1)关于作为素材数据的音频内容数据的乐音信息和时间信息、(2)关于作为素材数据的音频内容数据的个人信息、(3)感性信息、(4)环境信息和(5)生物信息作为附加数据与存储在素材数据存储装置31中的素材数据关联,并且具有关联的附加数据的素材数据被存储在素材数据库存储装置32中。
不一定要将所有上述附加数据随附于素材数据。只将与素材数据相对应的附加数据随附于素材数据。例如,如果作曲者、演奏者和/或录音者未知,则不将个人信息随附于素材数据。如果不存在与感性信息、环境信息和生物信息相对应的信息,则不将感性信息、环境信息和生物信息随附于素材数据。
如上所述,有可能在随附于素材数据的附加数据的基础上来提取构成新乐曲所必要的素材数据。
[新乐曲的作成(重构)]
现在将参照图3-7对通过使用根据该实施例的回放设备中的素材数据来作成(重构)新乐曲的各种方式进行描述。在如下所述的新乐曲的作成(重构)中,根据重构规则应用包括素材的组合、节拍变更、音高变更、音量变更、加入效果、移动镜头(panning)变更、素材的跳过(提取)和素材的合成在内的处理来构成新乐曲。现在将对这些处理进行描述。
图3示出素材数据的组合。参见图3,上图示出所提取的素材数据A、B、C和D的波形而下图示出素材数据A、B、C和D组合而成的音频数据的波形。如图3中的上图所示,在素材数据的组合中,所提取的素材数据A、B、C和D以在时间轴的方向上不相互重叠的方式组合,以产生图3中的下图所示的连续音频数据(组合的结果X)。
图4A示出素材数据的节拍变更。参见图4A,上图示出节拍变更前素材数据的波形而下图示出节拍变更后素材数据的波形。节拍变更只改变节拍而不改变音高。节拍变更减少了回放时间但不改变音程。
图4B示出素材数据的音高变更。参见图4B,上图示出音高变更前素材数据的波形而下图示出音高变更后素材数据的波形。音高变更只改变音高而不改变节拍。音高变化不改变回放时间但改变音程。
图4C示出素材数据的音量变化。参见图4C,上图示出音量变更前素材数据的波形而下图示出音量变更后素材数据的波形。在图4C中所示的例子中,在素材数据的音量逐渐降低之后,其音量逐渐增大。或者,音量可以在音量逐渐增大之后逐渐降低,音量可以频繁地波动,或者音量可能被固定至某一等级。
图4D示出对素材数据加入效果。参见图4D,上图示出在加入效果之前素材数据的波形而下图示出在加入效果之后素材数据的波形。在图4D中所示的例子中,畸变被加入至素材数据。然而,效果处理不限于加入畸变。可以对素材数据加入包括混响、合声、均衡、低通滤波(LPF)和高通滤波(HPF)在内的各种效果处理。效果处理可应用于整个素材数据或可应用于素材数据的一部分。
图5示出素材数据中的移动镜头变更。图5中的两个波形示出由同一素材数据生成的左(L)声道和右(声道)的波形。改变素材数据中的移动镜头以改变声源的左右平衡。
移动镜头变更也可应用于整个素材数据或素材数据的一部分。虽然在图5中将两个(左和右)声道作为例子,但在多声道例如,四声道或5.1声道的情形中可以来回或上下调节声像的空间位置。
图6示出素材数据的跳过(提取)。参见图6,上图示出跳过前素材数据的波形而下图示出跳过后素材数据的波形。具体来说,在素材数据的跳过中,跳过素材数据的一部分并且只提取必要的部分来使用素材数据。
图7示出素材数据的合成。参见图6,上四个波形示出合成前素材数据A、B、C和D的波形。图7中的最下面的波形示出通过合成素材数据A、B、C和D所产生的音频数据的波形。在素材数据的合成中,在同一时间轴上将多个素材数据相互叠加以生成新音频数据。例如,有可能通过合成各种乐器声部或嗓音声部来作成合奏曲。
在通过使用素材数据来合成新乐曲的处理中,能组合上述各种处理或将两个或多个处理同时应用于素材数据以作成不同的乐曲。例如,对于通过录制5种乐器的音调(声音)所产生的素材数据,在将节拍统一成“120”,将和弦设置成“G和弦”并将畸变加入吉他素材之后,素材数据被合成并且最终混响效果被加入所合成的素材数据。能从许多个素材数据作成全新的乐曲。
[重构规则数据库的内容]
现在将描述存储在重构规则数据库存储装置33中的信息。在由根据该实施例的回放设备用接收单元20取得的各种外部信息和存储在素材数据库存储装置32中的附加数据的基础上来参考重构规则数据库存储装置33中的信息以提供作成新乐曲所必要的信息。
重构规则数据库存储装置33包括:新作成的乐曲所基于的乐曲构成信息、如下所述的关系信息以及指示可在例如外部信息的基础上选择的重构处理的内容的信息。关系信息指示作为必要素材数据提取中的输入关键字信息的外部信息与随附于素材数据的附加数据之间的关系。如上所述,在根据该实施例的接收单元20中,通过传感器21和23以及输入装置25接收外部信息。
基本乐曲构成信息指示作为新作成的乐曲的本质的乐曲构成。乐曲构成信息包括:例如,关于和弦进行或乐曲的节拍的信息。多个乐曲构成信息被提供。例如,对诸如爵士、摇滚、流行乐或民谣等每一风格提供多个乐曲构成信息。乐曲构成信息可以由回放设备中的控制单元10随机地选择,可以根据用户用输入装置25输入的指令来选择,或可以在通过生物信息传感器21或环境信息传感器23接收到的信息的基础上来选择。
在关系信息和指示重构处理的内容的信息中,关系信息例如作为图8中所示的信息被存储在重构规则数据库存储装置33中。图8是示出指示重构规则数据库中的附加数据与外部信息之间的关系的关系信息的表。
参见图8,素材号指分配给素材数据存储装置31中所存储的多个素材数据的标识符。用户能引用这些标识符来从素材数据存储装置31中所存储的多个素材数据中标识目标素材数据。
参见图8,温度属性、肢体动作属性、时间属性和感性属性对应于该实施例中所使用的外部信息和随附于素材数据的附加数据。图8中的“N/A(不可应用)”指不存在相对应的数据。当肢体动作属性指示“10或以上”,时间属性指示“夜晚”且感性属性指示“安静”时,在通过生物信息传感器21、环境信息传感器23和输入装置25接收到的外部信息所生成的属性信息中,选择具有素材号“1”的素材数据。
因为存在多个素材数据具有相同属性信息的情况,因此可在其它外部信息的基础上从多个素材数据缩减将被使用的素材数据或可从素材数据库存储装置32中的其它附加数据中选择素材数据。例如,如果基本乐曲构成信息指示“摇滚”,则在素材数据库存储装置32中的相应数据的基础上不选择诸如日本民歌等不同流派的素材数据。
如下所述,指示重构处理的内容的信息指示如何处理每一素材数据。此信息指示包括组合、节拍变更、音高变更、音量变更、加入效果、移动镜头变更、素材的跳过(提取)和素材的合成在内的特定处理的内容。
这样的各种信息被预先存储在重构规则数据库存储装置33中。能基于由根据该实施例的回放设备所获得的外部信息来参考重构规则数据库存储装置33中的信息以获得乐曲构成信息、标识作成新乐曲所必要的素材数据、以及确定所标识的素材数据的处理方法。
[新乐曲的作成处理]
现在将参照图9中的流程图来描述在根据该实施例的具有上述结构的回放设备中构成新乐曲的操作处理。如上所述,假设根据该实施例的回放设备是便携式音频回放设备并且被用于例如户外。还假设天气晴朗且该回放设备的用户正在高兴地步行。还假设根据该实施例的回放设备包括作为环境信息传感器23的温度传感器和加速度传感器。
在用户打开根据该实施例的回放设备后,回放设备中的控制单元10执行图9中的流程图中所示的处理。控制单元10首先从重构规则数据库存储装置33中取得指示要新作成的乐曲的基本乐曲构成的乐曲构成信息(步骤S101),并确定要作成的乐曲的节拍(步骤S102)。
在步骤S101中获得的乐曲构成信息如上所述地指示例如乐曲的和弦进行和节拍。乐曲构成信息不限于一个,且记录多个乐曲构成信息将增加乐曲的变化性。乐曲构成信息能以各种模式选择。例如,乐曲构成信息可以由回放设备中的控制单元10随机地选择,或可以根据通过传感器21和23提供的信息和用户用输入装置25输入的信息来选择。用户可在自动选择和根据来自用户的指令选择之间切换。
在从乐曲构成信息确定节拍之后,控制单元10启动BPM(每分钟拍数)时钟(步骤S103)。BPM时钟用于对小节的头计数。虽然在图2中未示出,但是但设置在控制单元10中的时钟电路对BPM时钟计数。为依次且平滑地将诸素材数据彼此连结,重要的是要在诸小节的头上细分乐曲并将诸小节彼此连结。
接着,控制单元10通过传感器21和23取得输入。根据该实施例,控制单元10首先通过温度传感器取得输入(步骤S104),然后通过加速度传感器取得输入(S105)。在此例中的通过温度传感器和加速度传感器的输入中,对在步骤S105中通过加速度传感器取得的输入进行几秒的积分或平均计算。虽然通过温度传感器和加速度传感器取得的信息被用作外部信息,但可以取得和考虑由用户用输入装置25或其它开关输入的明示的指令。
控制单元10通过使用在步骤S104和S105中通过传感器取得的输入值作为关键字来参考重构规则数据库存储装置33,由此来搜索并取得适合当前温度和运动量的素材数据(步骤S106)。具体来说,如以上参照图8所述,在重构规则数据库存储装置33中描述关于素材数据存储装置31中所记录的素材的附加信息与输入关键字(外部信息)之间的关系。因此,控制单元10基于用作输入关键字的外部信息搜索信息,以标识图8中的素材号并基于所标识的素材号从素材数据存储装置31中读出目标素材数据。
在重构规则数据库存储装置33中存储的关系信息的描述中,可以如图8中所示地简单描述对应于从某传感器提供的值的素材的匹配规则,或素材数据可以被分成多组以描述从某素材组到另一素材组的状态转移条件。
诸如以上详细描述的组合或合成等重构处理与输入关键字(外部信息)之间的关系也在重构规则数据库存储装置33中进行了描述。在重构规则数据库存储装置33中描述了将哪种信号处理应用于素材数据。控制单元10从重构规则数据库存储装置33取得指示所要进行的处理的信息(步骤S107)。控制单元10基于所取得的信息对在步骤S106中取得的素材数据进行重构信号处理(构成处理)(步骤S108)。
在步骤S108中,控制单元10不必只根据重构规则数据库存储装置33中的信息,而是可以根据实现的算法使用随机数要素或概率要素来改变重构以避免单调。根据算法改变处理的内容使得能有效地作成新乐曲。结果,可以变化所要作成的新乐曲。
进行了信号处理的重构的音频数据通过D/A转换器52和音频输出装置(扬声器)51进行处理,以从音频输出装置51输出与重构的音频数据相对应的声音(步骤S109)。重构的音频数据被临时提供给足够大的音频缓冲器以被连续地回放。这是因为在诸小节的头上进行上述处理会在诸小节的断点处中断声音。在回放一小节时,在后台准备下一小节的声音。
控制单元10确定要处理的下一音频数据是否对应于小节的头(步骤S110)。如果控制单元10确定要处理的下一音频数据对应于小节的头,则控制单元10返回步骤S104以重复上述步骤。如果控制单元10确定要处理的下一音频数据不对应于小节的头,则控制单元10确定是否从用户接收到停止请求(步骤S111)。如果控制单元10确定未接收到停止请求,则控制单元10返回步骤S110以重复上述步骤。
如果控制单元10在步骤S110中确定接收到停止请求,则控制单元10终止图9中的处理以终止新乐曲的生成。
如上所述,根据该实施例的回放设备能在任何时间使用多个素材数据来作成新乐曲,回放所作的乐曲,并向用户提供该乐曲。用户能根据生物信息、环境信息和由用户输入的信息来重构新乐曲以收听重构的乐曲。
用户能享受每次收听不同的乐曲。另外,用户还可以根据来自用户的请求或用户的状态改变重构方法来作成更适合这些情况的乐曲。创作者能建立新的商业模式,其中除了采用相关技术的完成一首乐曲的演奏和录音方法之外,还生成各种乐句(phrase)并将它们作为素材记录来出售这些乐句,从而拓宽了创作者的机会。
音乐厂牌能开拓一个不仅出售低迷的现有记录介质还出售其上记录有素材的介质的行业。使回放设备商品化的制造商能提供新的音乐回放设备作为高附加值的新型商品以开拓市场。总而言之,本发明能用于带来用户享受音乐的新文化,从而为整个音乐产业注入了活力。
重构规则数据库和重构算法能由设备的安装者自由地确定。只向用户提供重构规则数据库和重构算法就使得能改变输出的乐曲而无需改变其素材和属性。相反,用其它替换素材而不改变重构规则和算法也使得能改变输入乐曲。因此,可以通过使用多个素材和多个规则数据库和算法来生成基本上无限数量的乐曲组合。
为了取得环境信息和生物信息,用户可以从操作面板上的菜单中明示地选择信息,或者可以用键盘而不用传感器来输入信息。
[重构新内容的方法的其它例子]
在以上参照图9所述的重构方法中,基于通过传感器21和23提供的外部信息来访问重构规则数据库存储装置33,并且存储在重构规则数据库存储装置33中的附加数据用于提取用于重构新音频内容的素材数据。然而,重构方法不限于以上。
例如,当指定一个或多个作曲者以生成新音频内容时,可以从素材数据库存储装置32中的信息中提取由这一个或多个指定作曲者生成的素材数据,以通过使用所提取的素材数据来生成新音频内容。或者,可以基于通过传感器21和23提供的外部信息或用户用输入装置25输入的指令来访问素材数据库存储装置32,以提取必要的素材数据,以通过使用所提取的素材数据来生成新音频内容。
如上所述,可以使用重构规则数据库存储装置33和素材数据库存储装置32中的任何一个来生成新音频内容。乐曲构成信息对确定要新作成哪个乐曲很重要。可以使用存储在重构规则数据库存储装置32中的乐曲构成信息,或者可以使用与用户用输入装置25输入的指令相对应的乐曲构成信息。
虽然在上述实施例中,在重构规则数据库存储装置33中存储了乐曲构成信息、和将素材号、要使用的附加数据及指示重构处理的内容的信息彼此关联的信息,但乐曲构成信息和其它信息也可以被存储在不同记录介质中。
如上所述,在根据该实施例的回放设备中,基于关于其中以PCM(脉码编码调制)或压缩音频格式记录音乐素材的记录介质中的素材的素材数据和附加数据在回放中重构乐曲。因此,即使使用相同的素材也可以在每次回放素材数据时生成不同的乐曲。
因为对应于由演奏者实际演奏的乐句的素材数据被用作一个单位,所以和用MIDI数据进行的自动作曲不同,用户可以感觉到演奏者的实际演奏。另外,因为每一乐句不是自动作成的,并且演奏者或作曲者感觉“良好”的乐句被录音,所以和自动作曲软件不同,可以克服“乐节作为音乐不奇怪但不佳”的限制。换言之,能保留作曲者和演奏者的个性。
将记录素材与能被重构的信息一起记录和回放使得能自动重构灵活而高质量的乐曲。
[其它]
作为素材数据的音频内容数据可以是线性PCM数据或者可以是以各种格式压缩的压缩音频数据。素材数据包括诸如线性PCM数据或压缩音频数据等音频数据的实体以及重构所需的附加数据。
如上所述,素材数据可以独立于重构数据库进行添加、改变、删除、部分替换、全部替换等。
虽然在上述实施例中硬盘被用作记录介质,但记录介质不限于硬盘。可以使用诸如光盘、磁光盘和磁盘等各种类型的盘记录介质或包括半导体存储装置在内的各种记录介质。在此情形中,素材数据可以与重构规则数据库记录在不同的记录介质中。
虽然在上述实施例中描述了便携式回放设备,但回放设备不限于便携式的。根据该实施例的回放设备可应用于安装和用于例如家中的台式回放设备。
如果以上参照图9描述的处理被编程,则可由能执行该程序的个人计算机实现根据该实施例的回放设备。根据本发明的方法能在个人计算机中实现。
虽然在根据该实施例的回放设备中实时地生成和回放新音频内容,但新音频内容的生成和回放不限于上述方式。例如,新音频内容可以被预先生成且所生成的音频内容可以被记录在记录介质中以回放记录在记录介质中的新生成的音频内容。
虽然在上述实施例中,控制单元10通过使用重构算法和重构数据库使用必要的素材数据进行重构处理,但重构处理不限于上述。用于音频内容数据的DSP(数字信号处理器)也可以用于重构新音频内容。
如上所述,因为可用的生物信息包括:排汗、心搏、脉波、呼吸、眨眼、眼球运动、凝视时间、瞳孔大小、血压、脑电波、肢体动作、体位、皮肤温度、皮肤电阻、微小振动、肌电位、血氧水平等,所以设置供能检测上述信息的传感器增加了成本。因此,可以只检测部分生物信息来使用所检测到的生物信息。例如,可以只使用温度传感器和脉波传感器。
类似地,因为可用环境信息包括:温度、湿度、天气、风速、日期、时刻、季节、亮度、气味、海拔、降雪量、降雨量、周围噪声等级、大气污染度、纬度、经度、地图信息、周围色彩、周围物体信息、移动速度、加速度、月龄、重力变化、振动、关系信息等,所以使用上述所有信息会不理想地增加成本。因此,如在根据上述实施例的回放设备中,例如,可以只设置温度传感器和加速度传感器,以得到可用环境信息。
另外,如果用户用输入装置25输入关于以上述方式自动生成(重构)的音频内容的信息,以修改或更新重构规则数据库中的信息,或如果使得能手动编排所生成的音频内容数据,则可以根据用户自身的品味更灵活地生成新音频内容。

Claims (28)

1.一种内容生成设备,包括:
素材存储装置,用于存储用作素材的多个音频内容数据;以及
附加数据存储装置,用于存储随附于每一个音乐内容数据并且起到索引/构成信息的作用的附加数据,
所述内容生成设备还包括以下各项中的至少一个:
接收装置,用于接收外部信息;以及
规则存储装置,用于存储在从所述多个音频内容数据中提取必要的数据来构成新音频内容的构成处理中所使用的规则信息,
所述内容生成设备还包括:
构成装置,用于在由所述接收装置接收的所述外部信息和所述规则存储装置中的所述规则信息中的至少一个的基础上根据所述附加数据存储装置中的所述附加数据从所述素材存储装置中提取必要的音频内容并执行所述构成处理来生成新的音频内容。
2.如权利要求1所述的内容生成设备,其特征在于,
所述附加数据存储装置存储附加数据,所述附加数据包括节拍、音阶、和弦、拍子、小节数、音量、音符和休止符序列、循环信息、风格信息、乐器类型、地域信息、作曲者信息、演奏者信息、录音者信息、素材群组信息、感性信息、生物信息和环境信息中的至少一个。
3.如权利要求2所述的内容生成设备,其特征在于,
所述附加数据存储装置存储由表示人的感觉、情绪或情感的数值和/或字符串描述的信息,作为包括在所述附加数据中的所述感性信息。
4.如权利要求2所述的内容生成设备,其特征在于,
所述附加数据存储装置存储排汗、心搏、脉波、呼吸、眨眼、眼球运动、凝视时间、瞳孔大小、血压、脑电波、肢体动作、体位、皮肤温度、皮肤电阻、微小振动、肌电位以及血氧水平中的至少一个,作为包括在所述附加数据中的所述生物信息。
5.如权利要求2所述的内容生成设备,其特征在于,
所述附加数据存储装置存储温度、湿度、天气、风速、日期、时刻、季节、亮度、气味、海拔、降雪量、降雨量、周围噪声等级、大气污染度、纬度、经度、地图信息、周围色彩、周围物体信息、移动速度、加速度、月龄、重力变化、振动、及关系信息中的至少一个,作为包括在所述附加数据中的所述环境信息。
6.如权利要求2所述的内容生成设备,其特征在于,还包括:
变更指令接收装置,用于接收关于包括在所述附加数据中的所述风格信息、生物信息、感性信息以及环境信息中的至少一个的变更指令,
其中所述内容生成设备任意地变更所述风格信息、生物信息、感性信息以及环境信息中的至少一个。
7.如权利要求1所述的内容生成设备,其特征在于,
所述内容生成设备包括生物信息检测和接收装置、环境信息检测和接收装置、用于从用户接收指令的指令接收装置、以及用于接收所述感性信息的感性信息接收装置中的至少一个作为所述接收装置。
8.如权利要求7所述的内容生成设备,其特征在于,
所述生物信息检测和接收装置检测和接收排汗、心搏、脉波、呼吸、眨眼、眼球运动、凝视时间、瞳孔大小、血压、脑电波、肢体动作、体位、皮肤温度、皮肤电阻、微小振动、肌电位以及血氧水平中的至少一个。
9.如权利要求7所述的内容生成设备,其特征在于,
由所述感性信息接收装置接收的所述感性信息由表示人的感觉、情绪或情感的数值和/或字符串来描述。
10.如权利要求7所述的内容生成设备,其特征在于,
所述环境信息检测和接收装置检测和接收温度、湿度、天气、风速、日期、时刻、季节、亮度、气味、海拔、降雪量、降雨量、周围噪声等级、大气污染度、纬度、经度、地图信息、周围色彩、周围物体信息、移动速度、加速度、月龄、重力变化、振动以及关于与附近的人的关系的信息中的至少一个。
11.如权利要求1所述的内容生成设备,其特征在于,
所述构成装置对用作素材的所述音频内容数据执行分类排序、合成、音高变更、节拍变更、音量变更以及音质变更中的至少一个。
12.如权利要求1所述的内容生成设备,其特征在于,
所述规则存储装置存储使用乐曲构成信息、随附于素材的所述附加数据以及由所述接收装置接收的外部信息中的至少一个的规则信息,来确定所述构成处理的内容。
13.如权利要求1所述的内容生成设备,其特征在于,还包括:
回放装置,用于根据由所述构成装置对所述音频内容执行的构成处理实时地回放由所述构成装置生成的音频内容。
14.如权利要求1所述的内容生成设备,其特征在于,还包括:
生成内容存储装置,用于存储由所述构成装置生成的音频内容;以及
回放装置,用于回放存储在所述生成内容存储装置中的所述音频内容。
15.一种内容生成方法,包括以下步骤:
存储用作素材的多个音频内容数据和随附于每一个音乐内容数据并且起到索引/构成信息的作用的附加数据;
基于从外部接收到的外部信息和在从所述多个音频内容数据中提取必要的数据来构成新音频内容的构成处理中所使用的规则信息中的至少一个,根据所存储的附加数据,从所述多个音频内容中提取必要的音频内容数据,并执行所述构成处理以生成新音频内容。
16.如权利要求15所述的内容生成方法,其特征在于,
所述附加数据包括节拍、音阶、和弦、拍子、小节数、音量、音符和休止符序列、循环信息、风格信息、乐器类型、地域信息、作曲者信息、演奏者信息、录音者信息、素材组信息、感性信息、生物信息和环境信息中的至少一个。
17.如权利要求16所述的内容生成方法,其特征在于,
包括在所述附加数据中的所述感性信息由表示人的感觉、情绪或情感的数值和/或字符串描述。
18.如权利要求16所述的内容生成方法,其特征在于,
包括在所述附加数据中的所述生物信息包括排汗、心搏、脉波、呼吸、眨眼、眼球运动、凝视时间、瞳孔大小、血压、脑电波、肢体动作、体位、皮肤温度、皮肤电阻、微小振动、肌电位以及血氧水平中的至少一个。
19.如权利要求16所述的内容生成方法,其特征在于,
包括在所述附加数据中的所述环境信息包括温度、湿度、天气、风速、日期、时刻、季节、亮度、气味、海拔、降雪量、降雨量、周围噪声等级、大气污染度、纬度、经度、地图信息、周围色彩、周围物体信息、移动速度、加速度、月龄、重力变化、振动、以及关系信息中的至少一个。
20.如权利要求16所述的内容生成方法,其特征在于,还包括以下步骤:
接收关于包括在所述附加数据中的所述风格信息、生物信息、感性信息以及环境信息中的至少一个的变更指令,
其中所述风格信息、生物信息、感性信息以及环境信息中的至少一个被任意地变更。
21.如权利要求16所述的内容生成方法,其特征在于,
所述外部信息包括所述生物信息、环境信息、感性信息、以及关于来自用户的指令的信息中的至少一个。
22.如权利要求21所述的内容生成方法,其特征在于,
所述生物信息包括排汗、心搏、脉波、呼吸、眨眼、眼球运动、凝视时间、瞳孔大小、血压、脑电波、肢体动作、体位、皮肤温度、皮肤电阻、微小振动、肌电位以及血氧水平中的至少一个。
23.如权利要求21所述的内容生成方法,其特征在于,
所述感性信息由表示人的感觉、情绪或情感的数值和/或字符串来描述。
24.如权利要求21所述的内容生成方法,其特征在于,
所述环境信息包括温度、湿度、天气、风速、日期、时刻、季节、亮度、气味、海拔、降雪量、降雨量、周围噪声等级、大气污染度、纬度、经度、地图信息、周围色彩、周围物体信息、移动速度、加速度、月龄、重力变化、振动以及关于与附近的人的关系的信息中的至少一个。
25.如权利要求15所述的内容生成方法,其特征在于,
对在所述构成处理中用作素材的所述音频内容数据执行分类排序、合成、音高变更、节拍变更、音量变更以及音质变更中的至少一个。
26.如权利要求15所述的内容生成方法,其特征在于,
所述规则信息使用乐曲构成信息、随附于所述素材的所述附加数据、以及所述外部信息中的至少一个来指示所述构成处理的内容。
27.如权利要求15所述的内容生成方法,其特征在于,还包括以下步骤:实时地回放进行了所述构成处理的新生成的音频内容。
28.如权利要求15所述的内容生成方法,其特征在于,还包括以下步骤:将所述进行了构成处理的新生成的音频内容存储在存储器中;以及回放存储在所述存储器中的所述音频内容。
CNA2005800304487A 2004-09-16 2005-08-25 内容生成设备和内容生成方法 Pending CN101014994A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004269086A JP2006084749A (ja) 2004-09-16 2004-09-16 コンテンツ生成装置およびコンテンツ生成方法
JP269086/2004 2004-09-16

Publications (1)

Publication Number Publication Date
CN101014994A true CN101014994A (zh) 2007-08-08

Family

ID=36059868

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2005800304487A Pending CN101014994A (zh) 2004-09-16 2005-08-25 内容生成设备和内容生成方法

Country Status (6)

Country Link
US (1) US7960638B2 (zh)
EP (1) EP1791111A4 (zh)
JP (1) JP2006084749A (zh)
KR (1) KR20070059102A (zh)
CN (1) CN101014994A (zh)
WO (1) WO2006030612A1 (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101625863B (zh) * 2008-07-11 2012-03-14 索尼株式会社 回放装置和显示方法
US9694893B2 (en) 2012-10-14 2017-07-04 Gibbs Technologies Limited Enhanced steering
CN111581402A (zh) * 2019-02-15 2020-08-25 北京京东尚科信息技术有限公司 内容测试素材的生成方法、系统、电子设备、存储介质

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
FR2903804B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
US7893342B2 (en) 2006-09-08 2011-02-22 Panasonic Corporation Information processing terminal and music information generating program
JP4623028B2 (ja) * 2007-03-20 2011-02-02 ヤマハ株式会社 曲編集装置およびプログラム
WO2008062816A1 (fr) * 2006-11-22 2008-05-29 Yajimu Fukuhara Système de composition de musique automatique
JP5125084B2 (ja) * 2006-12-11 2013-01-23 ヤマハ株式会社 楽音再生装置
JP4548424B2 (ja) 2007-01-09 2010-09-22 ヤマハ株式会社 楽音処理装置およびプログラム
JP4613923B2 (ja) * 2007-03-30 2011-01-19 ヤマハ株式会社 楽音処理装置およびプログラム
JP5135982B2 (ja) * 2007-10-09 2013-02-06 ヤマハ株式会社 楽曲加工装置およびプログラム
JP5228432B2 (ja) * 2007-10-10 2013-07-03 ヤマハ株式会社 素片検索装置およびプログラム
JP2009244705A (ja) * 2008-03-31 2009-10-22 Brother Ind Ltd ピッチシフトシステムおよびプログラム
JP4651055B2 (ja) * 2008-06-24 2011-03-16 株式会社ソニー・コンピュータエンタテインメント 音楽生成装置、音楽生成方法、及びプログラム
US8558100B2 (en) 2008-06-24 2013-10-15 Sony Corporation Music production apparatus and method of producing music by combining plural music elements
DE102008039967A1 (de) * 2008-08-27 2010-03-04 Breidenbrücker, Michael Verfahren zum Betrieb eines elektronischen Klangerzeugungsgerätes und zur Erzeugung kontextabhängiger musikalischer Kompositionen
WO2010041147A2 (en) * 2008-10-09 2010-04-15 Futureacoustic A music or sound generation system
KR20100089526A (ko) 2009-02-04 2010-08-12 삼성전자주식회사 생체 신호를 이용한 음악 생성 장치 및 그 방법
US20110184539A1 (en) * 2010-01-22 2011-07-28 Sony Ericsson Mobile Communications Ab Selecting audio data to be played back in an audio reproduction device
ITPG20120027A1 (it) * 2012-05-21 2013-11-22 Muusa Srl Sistema per la riproduzione di suoni associati a movimenti e relative tecniche di massaggio
JP2013246742A (ja) * 2012-05-29 2013-12-09 Azone Co Ltd 受動型出力装置及び出力データ生成システム
US8878043B2 (en) 2012-09-10 2014-11-04 uSOUNDit Partners, LLC Systems, methods, and apparatus for music composition
US8847054B2 (en) * 2013-01-31 2014-09-30 Dhroova Aiylam Generating a synthesized melody
US8927846B2 (en) * 2013-03-15 2015-01-06 Exomens System and method for analysis and creation of music
IES86526B2 (en) 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
JP6295583B2 (ja) * 2013-10-08 2018-03-20 ヤマハ株式会社 音楽データ生成装置および音楽データ生成方法を実現するためのプログラム
KR20150072597A (ko) * 2013-12-20 2015-06-30 삼성전자주식회사 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법
US9700333B2 (en) 2014-06-30 2017-07-11 Ethicon Llc Surgical instrument with variable tissue compression
US9721551B2 (en) 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
FR3043242A1 (fr) * 2015-11-03 2017-05-05 Univ Grenoble I Joseph Fourier Dispositif de generation de sons musicaux dans une gamme non-harmonique : le dynalophone
US20170131965A1 (en) * 2015-11-09 2017-05-11 Jarno Eerola Method, a system and a computer program for adapting media content
US10349196B2 (en) 2016-10-03 2019-07-09 Nokia Technologies Oy Method of editing audio signals using separated objects and associated apparatus
JP6492044B2 (ja) * 2016-10-28 2019-03-27 ロレアル ヒトケラチン物質の状態について使用者に知らせるための方法
WO2019049294A1 (ja) * 2017-09-07 2019-03-14 ヤマハ株式会社 コード情報抽出装置、コード情報抽出方法およびコード情報抽出プログラム
GB201721061D0 (en) * 2017-12-15 2018-01-31 Pob Enterprises Ltd System for processing music
US10803843B2 (en) * 2018-04-06 2020-10-13 Microsoft Technology Licensing, Llc Computationally efficient language based user interface event sound selection
US11127386B2 (en) * 2018-07-24 2021-09-21 James S. Brown System and method for generating music from electrodermal activity data
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
JP7440651B2 (ja) 2020-02-11 2024-02-28 エーアイエムアイ インコーポレイテッド 音楽コンテンツの生成
JP6736196B1 (ja) * 2020-03-06 2020-08-05 株式会社マスターマインドプロダクション 音声再生方法、音声再生システム、およびプログラム
WO2022249586A1 (ja) * 2021-05-26 2022-12-01 ソニーグループ株式会社 情報処理装置、情報処理方法、情報処理プログラムおよび情報処理システム

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4399731A (en) * 1981-08-11 1983-08-23 Nippon Gakki Seizo Kabushiki Kaisha Apparatus for automatically composing music piece
US4926737A (en) * 1987-04-08 1990-05-22 Casio Computer Co., Ltd. Automatic composer using input motif information
JPH01126692A (ja) * 1987-07-24 1989-05-18 Univ Leland Stanford Jr 音楽およびビデオ用のバイオポテンシャルディジタルコントローラ
US4982643A (en) * 1987-12-24 1991-01-08 Casio Computer Co., Ltd. Automatic composer
JPH0313993A (ja) * 1989-06-13 1991-01-22 Ii P R Japan:Kk カーミュージックシンセサイザー
US5451709A (en) * 1991-12-30 1995-09-19 Casio Computer Co., Ltd. Automatic composer for composing a melody in real time
JP2972431B2 (ja) * 1992-01-29 1999-11-08 株式会社河合楽器製作所 音響発生装置
JPH08227297A (ja) * 1994-12-21 1996-09-03 Fujitsu Ltd サウンド・データのマッピング方法及び表示装置
JPH08248953A (ja) * 1995-03-07 1996-09-27 Ekushingu:Kk 音楽再生方法及び装置と、これらのための音楽データベースシステム及び音楽データベース
JP3303617B2 (ja) * 1995-08-07 2002-07-22 ヤマハ株式会社 自動作曲装置
US5693902A (en) * 1995-09-22 1997-12-02 Sonic Desktop Software Audio block sequence compiler for generating prescribed duration audio sequences
US5627335A (en) * 1995-10-16 1997-05-06 Harmonix Music Systems, Inc. Real-time music creation system
US5990407A (en) * 1996-07-11 1999-11-23 Pg Music, Inc. Automatic improvisation system and method
JP3578464B2 (ja) * 1996-09-13 2004-10-20 株式会社日立製作所 自動作曲方法
US6121532A (en) * 1998-01-28 2000-09-19 Kay; Stephen R. Method and apparatus for creating a melodic repeated effect
JP3541706B2 (ja) * 1998-09-09 2004-07-14 ヤマハ株式会社 自動作曲装置および記憶媒体
JP3484986B2 (ja) * 1998-09-09 2004-01-06 ヤマハ株式会社 自動作曲装置、自動作曲方法および記憶媒体
JP3557917B2 (ja) * 1998-09-24 2004-08-25 ヤマハ株式会社 自動作曲装置および記憶媒体
JP3533974B2 (ja) * 1998-11-25 2004-06-07 ヤマハ株式会社 曲データ作成装置および曲データ作成プログラムを記録したコンピュータで読み取り可能な記録媒体
US7076737B2 (en) * 1998-12-18 2006-07-11 Tangis Corporation Thematic response to a computer user's context, such as by a wearable personal computer
JP3533975B2 (ja) * 1999-01-29 2004-06-07 ヤマハ株式会社 自動作曲装置および記憶媒体
TW495735B (en) * 1999-07-28 2002-07-21 Yamaha Corp Audio controller and the portable terminal and system using the same
US6392133B1 (en) * 2000-10-17 2002-05-21 Dbtech Sarl Automatic soundtrack generator
US7078609B2 (en) * 1999-10-19 2006-07-18 Medialab Solutions Llc Interactive digital music recorder and player
US7176372B2 (en) * 1999-10-19 2007-02-13 Medialab Solutions Llc Interactive digital music recorder and player
US7183480B2 (en) * 2000-01-11 2007-02-27 Yamaha Corporation Apparatus and method for detecting performer's motion to interactively control performance of music or the like
US20010035087A1 (en) * 2000-04-18 2001-11-01 Morton Subotnick Interactive music playback system utilizing gestures
JP3620409B2 (ja) * 2000-05-25 2005-02-16 ヤマハ株式会社 携帯通信端末装置
FI20001592A (fi) * 2000-07-03 2002-04-11 Elmorex Ltd Oy Nuottipohjaisen koodin generointi
EP1170722B1 (en) * 2000-07-04 2010-09-22 Sony France S.A. Incremental music title item sequence completion apparatus and method
US6384310B2 (en) * 2000-07-18 2002-05-07 Yamaha Corporation Automatic musical composition apparatus and method
JP3666577B2 (ja) * 2000-07-18 2005-06-29 ヤマハ株式会社 コード進行修正装置、コード進行修正方法及び同装置に適用されるプログラムを記録したコンピュータ読取り可能な記録媒体
JP2002032078A (ja) * 2000-07-18 2002-01-31 Yamaha Corp 自動作曲装置、方法及び記録媒体
EP1193616A1 (en) * 2000-09-29 2002-04-03 Sony France S.A. Fixed-length sequence generation of items out of a database using descriptors
KR100401012B1 (ko) * 2000-12-15 2003-10-30 김연경 감정상태에 기초한 선곡기능을 가진 음악제공시스템 및 방법
EP1241588A3 (en) * 2001-01-23 2006-01-04 Matsushita Electric Industrial Co., Ltd. Audio information provision system
JP2002247697A (ja) * 2001-02-19 2002-08-30 Ad Step:Kk 環境オーディオ放送システムとその放送制御装置
US7373209B2 (en) * 2001-03-22 2008-05-13 Matsushita Electric Industrial Co., Ltd. Sound features extracting apparatus, sound data registering apparatus, sound data retrieving apparatus, and methods and programs for implementing the same
WO2002077853A1 (en) * 2001-03-27 2002-10-03 Tauraema Iraihamata Eruera Composition assisting device
US6822153B2 (en) * 2001-05-15 2004-11-23 Nintendo Co., Ltd. Method and apparatus for interactive real time music composition
US6984781B2 (en) * 2002-03-13 2006-01-10 Mazzoni Stephen M Music formulation
US7053291B1 (en) * 2002-05-06 2006-05-30 Joseph Louis Villa Computerized system and method for building musical licks and melodies
JP2004086189A (ja) 2002-07-02 2004-03-18 Matsushita Electric Ind Co Ltd 楽曲検索システム
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
EP1489765A3 (en) * 2003-06-17 2005-12-14 Matsuhita Electric Industrial Co., Ltd. Music selection apparatus and music delivery system
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
US7683252B2 (en) * 2005-11-23 2010-03-23 Microsoft Corporation Algorithm for providing music to influence a user's exercise performance
US7728214B2 (en) * 2005-11-23 2010-06-01 Microsoft Corporation Using music to influence a person's exercise performance
US20070137463A1 (en) * 2005-12-19 2007-06-21 Lumsden David J Digital Music Composition Device, Composition Software and Method of Use
FR2903804B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
US8101844B2 (en) * 2006-08-07 2012-01-24 Silpor Music Ltd. Automatic analysis and performance of music
US20090071315A1 (en) * 2007-05-04 2009-03-19 Fortuna Joseph A Music analysis and generation method
EP2175403A1 (en) * 2008-10-06 2010-04-14 Sap Ag Method, system and computer program product for composing and executing service processes

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101625863B (zh) * 2008-07-11 2012-03-14 索尼株式会社 回放装置和显示方法
US9694893B2 (en) 2012-10-14 2017-07-04 Gibbs Technologies Limited Enhanced steering
CN111581402A (zh) * 2019-02-15 2020-08-25 北京京东尚科信息技术有限公司 内容测试素材的生成方法、系统、电子设备、存储介质

Also Published As

Publication number Publication date
WO2006030612A1 (ja) 2006-03-23
KR20070059102A (ko) 2007-06-11
US20080288095A1 (en) 2008-11-20
US7960638B2 (en) 2011-06-14
JP2006084749A (ja) 2006-03-30
EP1791111A1 (en) 2007-05-30
EP1791111A4 (en) 2011-12-28

Similar Documents

Publication Publication Date Title
CN101014994A (zh) 内容生成设备和内容生成方法
JP4306754B2 (ja) 楽曲データ自動生成装置及び音楽再生制御装置
US11881195B2 (en) Apparatus and methods for cellular compositions
US8017852B2 (en) Music content reproduction apparatus, method thereof and recording apparatus
JP4075565B2 (ja) 楽譜表示制御装置および楽譜表示制御プログラム
Pachet et al. Reflexive loopers for solo musical improvisation
JP5982980B2 (ja) 楽音発生パターンを示すクエリーを用いて演奏データの検索を行う装置、方法および記憶媒体
US7394012B2 (en) Wind instrument phone
JP2006517679A (ja) オーディオ再生装置、方法及びコンピュータプログラム
JP2008541149A (ja) インターネットを通したパターン組み合わせによる音楽製作システム及び方法
Zager Music production: A manual for producers, composers, arrangers, and students
CN106708894A (zh) 电子书配置背景音乐的方法和装置
US20020144587A1 (en) Virtual music system
CN102760428A (zh) 使用表示乐音生成模式的查询的演奏数据搜索
Delgado et al. A state of the art on computational music performance
JP2007250053A (ja) コンテンツ再生装置およびコンテンツ再生方法
CN109410972A (zh) 生成音效参数的方法、装置及存储介质
KR101020557B1 (ko) 사용자 창조형 음악 콘텐츠 제작을 위한 악보 생성 장치 및그 방법
JP2007156280A (ja) 音響再生装置、音響再生方法および音響再生プログラム
Lippit Listening with Hands: The Instrumental Impulse and Invisible Transformation in Turntablism
JP4413643B2 (ja) 楽曲検索再生装置
Fitzgerald Popular songwriting 1963-1966: Stylistic comparisons and trends within the US Top Forty
WO2022044646A1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
Hansen The acoustics and performance of DJ scratching
Yang et al. MIDI-LAB, a Powerful Visual Basic Program for Creating MIDI Music

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20070808