CN101548257A - 用于表现音频数据的方法和设备 - Google Patents
用于表现音频数据的方法和设备 Download PDFInfo
- Publication number
- CN101548257A CN101548257A CNA2007800451150A CN200780045115A CN101548257A CN 101548257 A CN101548257 A CN 101548257A CN A2007800451150 A CNA2007800451150 A CN A2007800451150A CN 200780045115 A CN200780045115 A CN 200780045115A CN 101548257 A CN101548257 A CN 101548257A
- Authority
- CN
- China
- Prior art keywords
- audio
- variation
- duration
- operable
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/02—Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
- G11B27/031—Electronic editing of digitised analogue information signals, e.g. audio or video signals
- G11B27/034—Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B27/00—Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
- G11B27/10—Indexing; Addressing; Timing or synchronising; Measuring tape travel
- G11B27/19—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
- G11B27/28—Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/125—Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Electrophonic Musical Instruments (AREA)
- Auxiliary Devices For Music (AREA)
Abstract
一种音频存储体系结构允许音频管理应用操控和重组合音乐作品中的分段,使得得到的完成乐曲包括来自所分解的作品(典型地如歌曲)的多个部分(分段),其长度可通过选择性地重复特定部分以及与其他部分组合来调整,使得完成的乐曲在预定持续时间中提供类似的音频体验。该体系结构定义了具有独立长度的部分变奏的部分,其被识别为执行开始部分、中间部分、(循环部分)或结束部分的函数。每个部分提供可与其他部分无缝整合的音乐分段,这就避免了在传统的机械切换和混音时常会出现的可听见的人为噪音(例如,“噼啪”和“砰”)。
Description
背景技术
传统的声音放大和混音系统已经用于将固定媒介中的音乐配乐处理成用户或听众可察觉的所呈现的可听到的信号。经由耦合到广泛可用的处理器系统(即,PC)的CD,以数字形式记录的音乐的出现已经使得音乐发烧友或者甚至是偶然的家庭听众都可以利用其来对音乐的数字处理。例如,传统的模拟记录已经被通常处于较小个人装置(例如MP3和)中的磁记录装置或光记录装置的音频信息所取代。在管理的信息环境中,存储音频信息并通过扬声器装置将其作为歌曲或配乐呈现给用户,扬声器装置可用于对用户产生相应的可听到的声音。
类似地,根据先前只有专业的音乐家和录音工作室才能够使用的复杂的、鲁棒(robust)的混音和切换技术,基于应用的计算机能够处理存储在音频文件中的音频信息。所谓的“多媒体”应用的初学者和休闲用户能够在传统PC上整合和组合不同形式的数据,例如视频、还有图片、音乐和文字,并能够生成可听信号和可见图像形式的输出,这些输出可以播放和/或展示给听众,或为了进一步的活动传递到恰当的装置上。
发明内容
以数字形式记录的音频极大地提升了家庭或音乐发烧友以曾经只有专业人员才能够利用的方式来放大或混音来自音乐源的声音数据的能力。传统的声音编辑应用允许用户修改声音的可察觉的方面,例如低音和高音,以及通过对有关传统信息呈现时间的信息进行延伸或压缩来调整长度。
但是,因为采用的压缩和扩展技术更改了在给定时间内所呈现的信息量,传统声音应用缺点在于,对音频作品的持续时间(即时间长度)进行的修改改变了节奏,常常会“加快”或“放慢”所察觉到的音频(例如音乐)。此外,传统应用不能在当音频信息从一段切换或转换到另一段时不存在可察觉的不连贯(即“噼啪”或“砰”)的条件下,重排列音乐配乐中的不连续段。
因此,本文的配置通过定义一种如下的体系结构和机制,而基本上克服了传统音频混音处理应用所表现出的缺点,该体系结构和机制通过一种可被重排列或重组合的方式,将音频信息由音频信息的非连续部分存储为具有预定长度的完成音乐乐曲作品,同时在其组合的构成音频部分之间没有可检测到的不连贯。因此,本文的配置从表明音乐配乐或作品的多个部分的时间和相对位置的文件格式中识别一组分解的音频信息,并识别每部分在重组合的完成乐曲中的函数和位置。每个所存储的部分可用于重组得到一首无缝的、连续的、预定长度的乐曲,尽管持续时间有所变化,但是提供了连贯的用户聆听体验。
音频存储体系结构允许音频编辑应用操控和重组合音乐作品的分段,从而得到的完成乐曲包括来自所分解作品(典型地如一首歌)的多个部分(分段),其长度可通过选择性地重复特定部分以及与其他部分进行组合来调整,使得完成的乐曲在预定持续时间中提供类似的音频体验。音频存储体系结构定义了具有独立长度的部分变奏的部分,其可识别为执行开始、中间、(循环)或结束部分的函数。每个部分提供一个音乐分段,其以无缝的方式将其与其他部分整合在一起,这就避免了传统机制下切换和混音时常见的可听见的人为噪音(例如,“砰”、喀嚓声或“相位抹音(phase erasement)”)。每个部分还包括表明部分排序方式、部分是否可以重复或“循环”的属性,以及影响所呈现的完成的乐曲作品的曲调与和声的调节器。
更加详细地,这里所定义的以适合重排列的形式存储音频信息的方法包括识别音频信息的音乐配乐,和将该配乐分解为多个部分,使得每个部分定义一个可用作可重排列的元素的配乐分段。音频信息编辑应用给每个部分分配一个函数,使得该函数表明该部分作为可重排列的元素的顺序,其中该部分响应于重排列器,重排列器可操作为基于该函数按照特定顺序重组合这些部分。重排列的部分具有基于用户指定的时间的所组合的集合的持续时间。
每个部分包括至少一个部分变奏,使得每个部分变奏具有不同的长度以允许重组合匹配所期望的长度,但是每个部分变奏都是基于该部分的,并且可用于提供类似的音频输出。这样,部分的部分变奏提供了类似的呈现聆听体验。
在重排列的例子中,分解包括对每个部分计算至少一个音轨,其表明生成部分中的音频信息的源的子集。重组合包括基于函数从部分变奏中选择下一个部分变奏,使得下一个部分变奏具有相应的函数(例如片段)和相应的持续时间,使得所有部分的总持续时间大体上等于预期的持续时间。如下面将进一步讨论,对部分的选择包括识别部分变奏中的音轨和片段。重排列器通过对所选择的部分变奏进行排序和重复来重排列部分,以生成具有预定持续时间的部分集合,并且重排列器重复选择部分以向部分集合中添加下一个部分变奏。因此,重排列包括基于长度来组合多个部分,使得所有部分的总长度大体上等于期望的持续时间。
在配置的例子中,这里定义的表现音乐配乐包括识别适用于当作音频信息的可重组合部分的配乐分段,使得每个部分可在部分序列中位于其他特定部分之后,给每个部分确定一个表明部分在所重组合的音频作品中的排序的函数。函数(例如开始、结束、循环)专用于根据内容所选择的部分中的特定片段。重组合还包括为每个部分确定表明了所重组合的音频作品中每个部分的相对位置的类型,还可以包括计算该部分的部分变奏,使得一个部分的每个部分变奏具有不同的持续时间。部分变奏的持续时间适合计算重组合部分序列的持续时间,以满足得到的所重组合的部分的预期的总持续时间。分解器对每个部分变奏列举至少一个音轨,使得每个音轨可呈现一个或多个片段的音频内容,以及以重排列器可访问的方式存储这些部分和相应的变奏,包括音轨和片段,重排列器可以根据期望的预定持续时间重排列部分变奏。
本发明的替换配置包括多程序设计或多处理的计算机化装置例如工作站、掌上电脑或便携式电脑或专用计算装置等,其配备有软件和/或电路(例如上面总结的处理器)用以处理本发明的实施例在这里所公开的方法的任意或所有操作。本发明的其他实施例还包括软件程序例如Java Virtual Machine(Java虚拟机)和/或可以单独操作或与使用多处理的计算机化装置互相结合起来进行操作的操作系统,以执行以上所总结的和下面详细描述中所公开的该方法实施例的步骤和操作。这样一种实施例包括一种计算机程序产品,其具有包括其上编码的计算机程序逻辑的计算机可读媒介,在具有存储器和处理器耦合的多处理计算机化装置中执行的时候,使处理器运行程序以执行本发明实施例中所公开的操作以实现数据访问请求。典型地将本发明的这种安排提供为软件、代码和/或其他在计算机可读媒介上或编码排列的数据(例如,数据结构),所述计算机可读媒介诸如光介质(例如,CD-ROM)、软盘或硬盘或其他媒介,例如一个或多个ROM或RAM或PROM芯片中的固件或微码、现场可编程门阵列(FPGAs)或专用集成电路(ASIC)。软件或固件或其他这类配置能够安装在计算机化装置上(例如在操作系统或执行环境安装的时候),使得计算机化装置执行本发明实施例中所解释的技术。
附图说明
在下列本发明的特定实施例的描述中,前述内容和本发明的其他目的、特征和优势将很明显,如附图中图示的那样,其中类似的参考标记表示所有的不同附图中的相同部分。附图不一定依照比例绘制,重点在于说明了本发明的原理。
图1是适用于本发明的示例性的音频开发环境的架构图;
图2是在图1的环境中歌曲重排列的流程图;
图3是根据图2的流程图进行修改的歌曲的部分的框图;
图4-图6是根据图3中的系统对歌曲部分进行重排列的流程图。
具体实施方式
因为采用的压缩和扩展技术更改了在给定时间内所呈现的信息量,传统声音应用缺点在于,对音频作品的持续时间(即时间长度)进行修改常常会改变节奏,常常会“加快”或“放慢”所察觉到的音频(例如音乐)。此外,利用机械切换和混音的传统方法常常在音频信息从一段切换或转换到另一段时引入可察觉的不连贯(即“噼啪”或“砰”)。通过定义一种以可操作为被重排列或重组合的方式从音频信息的非连续部分存储音频信息的体系结构和机制,下面所讨论的配置基本上克服了传统的音频混音和处理应用所呈现的缺点。所得到的完成音乐乐曲具有通过重排列器进行重排列的构成部分的预定长度,同时在其组合的构成部分之间不存在可检测到的不连贯。因此,本文的配置从表明音乐配乐或作品的多个部分的时间和相对位置的文件格式中识别已分解的一组音频信息,并识别每部分在重组合的完成乐曲中的函数和位置。每个所存储的部分可用于重组得到一首无缝的、连续的、预定长度的乐曲,尽管持续时间有所改变,但是提供了连贯的用户聆听体验。
图1是适用于本发明的示例性的音频开发环境的架构图。参照图1,音频编辑环境100包括分解器110和音频编辑应用120。在配置的例子中,音频编辑应用可以是加利福尼亚州圣何塞的Adobe SystemsIncorporated(奥多比系统公司)的商品SOUNDBOOTH应用。音频编辑应用120包括:用于重排列和重组合歌曲部分的重排列器130,和用于在用户装置160上呈现已完成的(已重排列的)音频乐曲166的呈现器122。分解器110可用于接收音乐作品或配乐102并分解对应于歌曲不同段落的分段104-1...104-3。这些段落包括例如前奏、合唱部分、独唱部分、副歌和过渡乐节。重排列器130接收已分解的歌曲112(或歌曲),其为对应于初始配乐102中每个分段104的一连串部分114。得到的所呈现的音频乐曲166是具有由下面进一步讨论的重排列器130处理的构成部分114的重排列乐曲。重排列器130的处理包括对部分114进行重新排序和重复以适合特定的时间限制,以及修改该部分的特性例如曲调、和声、强度和音量。图形用户界面144接收用户输入,该用户输入用以指定歌曲中的部分的重排列和重新排序。
重排列器130还包括重组132、函数鉴别器134和部分鉴别器136。重组合器130可用于将部分114重排列和重新排序成乐曲138,其中重排序的分段144-1...144-4(统称144)对应于部分114。下面进一步讨论每个分段144是具有特定持续时间的部分变奏。下面也会讨论每个部分变奏144包括具有一个或多个片段的音轨。函数鉴别器134识别每个部分114顺序的函数,其表明特定部分114可以与其他部分114重新组合的顺序。这里示出的例子中,函数包括开始、结束和循环(可重复)元素。可以采用具有其他函数的替代部分;函数所指定的可重组合性的粒度是片段,对于整个部分来说其不需要是相同的。函数涉及部分、片段、或循环与其他分段的可组合的方式,可以专用于片段、或可应用于部分中所有的片段。部分鉴别器136确定每个部分114的持续时间,进一步识别具有不同持续时间的部分变奏144,就像下面将进一步讨论的。在下面的配置例子中,部分鉴别器136计算多个部分114的持续时间以组成从GUI中接收到的具有所指定的时间长度、或持续时间的乐曲138。
在这种系统中,期望改变音乐配乐的长度,还不背离听众所期望的独唱部分和其间的合唱部分的次序。呈现给用户的已重排列的乐曲138(基于函数和类型)保持了部分114的期望次序,以在不通过“伸展”和“压缩”音频而改变节奏的情况下满足期望的持续时间。应当注意到这里用到的“部分”的概念是指作品的由时间限定的段落,不是指包含了特定单个乐器的乐器“部分”。
重排列器130采用已分解的歌曲112,将其在本地存储装置140(例如本地磁盘驱动)上存储为一组索引为可重排列元素142-1...142-N(统称为142)的文件。一首歌曲还可以具有不同长度的几种歌曲变奏,将它们中的每一个分解成可重排列的元素142。在图3的进一步讨论中,可重排列的元素142共同地包括部分、部分变奏、音轨和片段。在排列的例子中,例如可重排列的元素142定义了根据命名惯例命名的表明元素的一组文件,还可以包括部分或部分的变奏。可以采用其他匹配的文件排列来存储元素142。
因此,在排列的例子中,重排列器130通过组合歌曲变奏138中所包含的所有部分114,来计算歌曲(已重排列的乐曲)138的给定歌曲变奏(歌曲时间长度变化)长度。对于每个部分114,反复尝试将所有部分变奏和该歌曲变奏的其他部分114中的任意部分变奏组合在一起。如果得到的歌曲变奏持续时间小于期望的长度,那么所有部分的重复次数逐个部分地增加。重排列器130一直反复执行上述操作直到得到的持续时间等于或大于期望的长度。在重复执行期间,如果持续时间保持在所期望的长度以下,那么在搜索中标记待移除的部分变奏144。重排列器138搜索离期望的长度误差最小的组合。(149,图3)下面将进一步讨论在自动模式中,比较每个歌曲变奏的最终/最佳搭配,使得在歌曲变奏的所有部分中选择最小得到误差和重复次数,同样加权的这两个值是最小的。
图2是在图1的环境中歌曲重排列的流程图。参照图1和图2,这里所定义的以适合重排列的形式存储音频信息的方法包括,在步骤200处,识别音乐信息的音乐配乐102,如步骤201所述将配乐分解成多个部分114,使得每个部分114定义了一个可作为可重排列元素160的配乐分段104。音乐配乐104是音频源中的音乐作品或歌曲,典型地是一首中等(例如3-5分钟)长度的简单歌曲,但是可以从音频源中获得特定长度的任意适当的配乐。
重排列器130给每个部分分配一个函数,使得该函数表明该部分作为可重排列的元素160的顺序。如步骤202所示,部分114响应于重排列器130,将基于该函数按照特定顺序重组合这些部分,其中重排列的部分具有基于用户所指定的时间的组合的集合持续时间。例如,函数表明部分114是否出现在序列的开始、最后或中间,以及是否可以在多个反复中循环部分114或将其串联在一起。因此,如针对表1所讨论的,简单的重排列具有多个部分,各部分具有开始、循环部分的多次反复以及结束部分的函数。其他的细化可以基于部分114的类型执行,例如独唱部分、合唱部分或过渡乐节,例如,其中可以由合唱部分来划分多个独唱部分。如步骤203所述,分解器110以重排列器130可访问的形式存储得到的部分142,重排列器130可用于根据期望的预定时间重排列部分变奏144。在配置的例子中,将部分114作为可重排列的元素160存储在分解器110和音频编辑应用120都可以访问的本地磁盘驱动140中。
图3是根据图2的流程图进行修改的歌曲(配乐)102的部分的框图。参照图1到图3,本地驱动140将可重排列的元素142存储为部分114-1...114-3。重排列器130像访问文件一样访问元素142以提取部分114。每个部分114具有一个或多个部分变奏144-11...144-31(统称为144-N)。部分变奏144-N是改变了时间的分段104,其通常提供类似的呈现体验并具有相同的部分函数和部分类型。因此一组可重排列的元素142提供一系列的经时间改变的可重组合的元素142,其可由重排列器130处理和重排列以生成具有可变的总持续时间的提供了类似呈现体验的已重排列的乐曲138。每个部分还包括一个或多个音轨146-1...146-N,每个音轨可以包括一个或多个片段148-1...148-N。一种特别的用法是将声道匹配到视频分段。声道可以和视频分段的长度匹配,同时不背离由副歌/合唱部分分开的独唱部分的歌曲结构和没有前奏和结束分段(部分)。
部分114还包括属性160,包括函数161-1、类型161-2、和大小可调性161-3。每个部分114或部分变奏144具有一个或多个音轨,每个音轨包括一个或多个片段。该属性是部分所共有的,或专用于该部分中的特定音轨或片段,如下面表I中所示。函数161-1表明了部分在乐曲138中的排序。在配置的例子中,函数表明了开始部分、结束部分或循环部分。例子部分114包括3个片段,一个用于开始部分、一个用于结束部分和一个用于循环部分。类型161-2是特定歌曲中部分的音乐名称,可以表明例如合唱、独唱、副歌、过渡乐节、前奏或结尾。类型表明从一个部分到另一个部分的音乐流,例如独唱之间的合唱、延续到独唱部分的过渡乐节。大小可调性161-3表明是否多次重复或循环部分114,以增加得到的集合部分114的持续时间。尽管不是必需的,这可能涉及函数161-2(即循环)。
在图3中,已重排列的乐曲138具有四个部分144-1...144-4。重组合器132寻求期望的60秒的时间。函数鉴别器134识别出部分114-1具有开始函数,部分114-2具有循环函数、类型是过渡乐节,以及部分114-3具有结束函数。响应于选择不同长度的部分变奏144,部分鉴别器136选择持续时间为20秒的部分144-12、持续时间为15秒的部分144-22的两次反复(循环)(这样总共30秒)和持续时间为10秒的部分变奏144-31,总计60秒。例如替代的乐曲138可以包括:部分类型为前奏、独唱、合唱、独唱、结尾的5个部分,或保留类型所指定的序列、函数所指定的反复以及集合(总计)为期望时间的部分变奏的其他组合。
表I中示出了上面配置中所使用的数据体系结构的例子:
表I
图4-图6是是根据图3中的系统歌曲部分重排列的流程图。参照图3-图6,如步骤300所述,分解器110识别配乐102的适于作为音频信息的可重组合部分114的分段104,使得每个部分114可在部分序列中位于其他部分的后面。分解器110将音乐作品102分成分段104,每个分出的分段表示一个具有特定持续时间D且可作为整体来进行重组合的部分114。这样,分解器110划分(识别)的部分114表示组成重排列的乐曲138的单元。
如步骤301所公开的,从已识别的分段104中,分解器110通过将音频源(即配乐102)分解成音频分段104,开始处理可呈现的音频分段104,使得每个音频分段104具有一个持续时间和包括函数161的属性160。因此,识别分段104包括基于部分的持续时间D和属性160将音乐配乐102分解成部分114,其中属性160还定义了包含在部分114中的音频的可呈现特征。
每个分段104的属性160用于重排列分段104,下面将进一步地讨论。这样,分段104可以被看作是音乐配乐102的具有时间次序的段落。如步骤302所述,分解还包括对每个部分114计算至少一个表明生成部分114中音频信息的源的子集的音轨。音轨146是音乐源的子集,可以包括单独的乐器或乐器的集合,例如管乐器或弦乐器。
如步骤303所述,分解还在多个量化的属性160中定义歌曲102,所述属性可用于被重组得到具有可变持续时间的可呈现的音频作品或乐曲138。如步骤304所示,分解器识别每个部分114是否可调整大小,存储表明可靠性的属性161-3。大小可调性属性161-3表明部分是否可以连续地重复或循环,以通过多个单独的部分114延长乐曲138的长度。属性160还包括修改包含在部分114中的音频的调节器,使得该调节器可选择性地修改包括在部分中的音轨146的子集。可以作为额外的属性160包括调节器,并可通过在同时提交的、名为“METHODS ANDAPPARATUS FOR MODIFYING AUDIO INFORMATION”[律师存档号No.ADO06-024(B372)]的共同未决专利申请(在此通过引用包含其内容)中所讨论的技术来加强。
如步骤305所述,分解器110给每个部分114确定了一个表明部分114在所重组合的音频作品138中顺序的函数161-1。函数161-1表明了部分114的相对顺序,例如哪些类型161-2可以处于其他部分114的前面和/或后面,和是否以循环的方式重复该部分。典型的函数包括开始、结束和循环。
如步骤306所述,分解器110给每个部分114确定了一个表明每个部分114在所重组合的音频作品138中相对位置的类型161-2。该类型将特定部分识别为定性的音乐段落,例如合唱、副歌或过渡乐节,还可以指定例如独唱之间的合唱或副歌的顺序。在很多情况下,函数161-1或类型161-2可以表明类型的值为循环或可重复的合唱(类型)的大小可调性。
分解器110将已分解的分段104当作可重排列的元素142存储在存储装置140上。如步骤307所公开的,分解器110还计算部分114的部分变奏144,使得一个部分的每个部分变奏具有不同持续时间,其中部分变奏144的持续时间D适合计算所重组合的部分114的序列138的持续时间。如步骤308所公开的,每个存储为可重排列的元素160的部分114还包括至少一个部分变奏144,使得每个部分变奏144具有不同长度(D),其中部分变奏144是基于该部分的,并可用于提供类似的音频输出。这样,每个部分变奏144具有类似的声音并向用户提供类似的呈现体验,但是是在不同的持续时间中,以允许进行重组合以匹配所完成的乐曲138的特定的总长度(持续时间)。所存储的可重排列的元素160还对每个部分变奏144列举至少一个音轨146,其中每个音轨可用于呈现音频内容309。典型地,相同部分的每个部分变奏144具有相同数量的音轨146。如步骤310所述,每个部分114具有一个或多个可用于呈现音频内容的音轨146,和每个部分具有至少一个适合包含音频信息的片段。片段是单一的声音源,例如单一的乐器。如步骤311所公开的,分解器110以重排列器130可访问的形式存储部分114和相应的部分变奏144,重排列器130可用于根据期望的预定持续时间重排列部分变奏144。
重排列器130接收已分解为一组112的部分114的歌曲112的可重排列的元素142。如步骤312所述,重排列器130通过对所选择的部分变奏144进行排序和重复,来重排列部分以生成具有预定持续时间的部分集合138。这包括基于函数161-1从部分变奏144中选择下一个部分变奏144。如步骤313所述,所选择的下一个部分变奏144具有相应的函数161-1和相应的持续时间D,使得所有部分的总持续时间大体上等于预期的持续时间。因此,如步骤314所示,函数鉴别器134通过识别具有相应函数和相应长度(持续时间)D的部分变奏144,来计算和获取下一个分段104的部分变奏144。函数鉴别器134可以根据一连串部分的类型161-2、一组可允许序列的规则或其他适当的手段来执行选择的下一个部分变奏144,其在同时提交的名称为“METHODS ANDAPPARATUS FOR RENDERING AUDIO DATA”[律师存档号No.ADO06-025(B373)]的共同未决美国专利申请(在此通过引用包含其内容)中进一步地进行讨论。
如步骤315所述,重组合器132排列作为可呈现音频作品138的可重组合部分114的多个音频分段104,使得每个分段104定义一个具有可变持续时间D的部分变奏144的部分114,将其存储为可重排列的元素142。在配置的例子中,如步骤316所示,部分114响应于图形用户界面(GUI)应用164,使得GUI应用164还可用于重排列部分集合中的部分114,其中重排列还包括向当前的部分变奏144的集合138中添加下一个分段104,下一个分段104包括部分变奏144。
如步骤317所述,重排列还包括基于长度组合多个部分,使得所有部分的总长度大体上等于期望的持续时间。因此,如步骤318所示,部分鉴别器136基于函数161-1和持续时间D的组合部分变奏144,以生成具有预定时长的重组合序列138,使得函数161-1表明所组合的部分变奏138的顺序。如步骤319所述,重组合器132反复执行选择步骤用以将部分变奏144添加到部分集合138中,直到在完成的乐曲138中达到期望的总持续时间。控制恰好回到步骤313,将完成的乐曲138发送到用户装置160在GUI164上呈现出来166。在上面所引用的共同未决的美国专利申请[ADO06-024(B372)]中公开了关于GUI的连续处理的细节。
本领域中的普通技术人员很容易体会到,这里所定义的用于表现和处理音频信息的程序和方法可用于多种形式的处理装置,包括但不限于a)永久地存储在不可写的存储媒介(例如ROM装置)上的信息,b)可变地存储在可写的存储媒介(例如软盘、磁带、CD、RAM装置和其他磁的或光的媒介)上的信息,c)经过通信媒介,例如使用基带信号发送技术或宽带信号发送技术,在电子网络例如因特网和电话调制解调器线路中,传送到计算机的信息。所公开的方法可以是基于用于执行上面所讨论的操作和方法的基于处理器的指令的已编码集合的形式,可用在存储器或索引的数据结构上,存储器或索引的数据结构可以作为一组已排序的存储器容器而被索引或基于登记簿来访问。这种投入使用例如可以以具有计算机可读媒介的计算机程序产品的形式实现,所述计算机可读媒介用于存储以在其上编码的计算机程序代码实现的计算机程序逻辑。可以在软件可执行的对象或一组嵌入载波中的指令中实现该操作和方法。可选择地,可以在整体地或部分地使用硬件部件中体现这里所公开的操作和方法,硬件部件例如专用集成电路(ASIC)、现场可编程门阵列(FPGA)、状态机、控制器或其他硬件部件或装置、或硬件组合、软件和固件部件。
通过引用本发明的实施例已经特别地展示和描述了用于表现和处理音频信息的系统和方法,本领域中的普通技术人员可以理解,在不离开所附权利要求书涵盖的本发明的范围的条件下,可以作出形式和细节上的各种改变。
Claims (24)
1.一种以适合重排列的形式存储音频信息的方法,包括:
识别音频信息的音乐配乐;
将所述配乐分解成多个部分,每个部分定义所述配乐的一个可操作为可重排列元素的分段;以及
对每个所述部分分配一个函数,所述函数表明了作为可重排列元素的所述部分的顺序,所述部分响应于可操作为基于所述函数以特定顺序重组合所述部分的重排列器,所述已重排列的部分具有基于用户指定时间的组合的总持续时间。
2.根据权利要求1所述的方法,其中每个所述部分还包括至少一个部分变奏,每个所述部分变奏具有不同的长度,所述部分变奏基于所述部分并可操作为提供类似的音频输出。
3.根据权利要求2所述的方法,其中分解还包括对每个部分计算至少一个音轨,所述音轨表明生成所述部分中的所述音频信息的源的子集。
4.根据权利要求3所述的方法,还包括:
基于所述函数从所述部分变奏中选择下一个部分变奏,所述下一个部分变奏具有相应的函数和相应的持续时间,使得所有所述部分的总持续时间大体上等于预期的持续时间;
通过对所述选定部分变奏进行排序和重复,重排列所述部分以生成具有预定持续时间的部分集合;以及
重复所述选择以将下一个部分变奏添加到所述部分集合。
5.根据权利要求4所述的方法,其中重排列还包括基于长度组合多个所述部分,使得所有所述部分的总长度大体上等于期望的持续时间。
6.一种表现音频信息的配乐的方法,包括:
识别适合作为音频信息的可重组合部分的所述配乐的分段,每个所述部分可操作为在部分序列中位于其他特定部分的后面;
对于每个所述部分,确定表明了所述部分在重组合的音频作品中的排序的函数;
对于每个所述部分,确定表明了每个所述部分在重组合的音频作品中的相对位置的类型;
计算所述部分的部分变奏,部分的每个部分变奏具有不同的持续时间,所述部分变奏的所述持续时间适合于计算重组合部分序列的持续时间;
为每个所述部分变奏列举出至少一个音轨,每个音轨可操作为呈现音频内容;以及
以重排列器可访问的方式存储所述部分和相应的变奏,所述重排列器可操作为根据期望的预定持续时间来重排列所述部分变奏。
7.根据权利要求6所述的方法,其中识别分段还包括基于所述部分的持续时间和属性将音乐配乐分解成多个部分,所述属性还包括定义包含在所述部分中的所述音频的可呈现特征。
8.根据权利要求7所述的方法,其中所述属性包括针对包含在所述部分中的所述音频的调节器,所述调节器可操作为选择性地修改包含在所述部分中的所述音轨的子集。
9.根据权利要求8所述的方法,还包括识别每个部分是可调整大小的还是不可调整大小的,以及存储表明大小可调性的属性。
10.根据权利要求9所述的方法,其中所述部分响应于图形用户界面(GUI)应用,所述GUI应用还可操作为在部分的集合中重排列部分,重排列还包括向当前的部分变奏的集合中添加下一个分段,所述下一个分段包括部分变奏,还包括通过识别具有相应函数和相应长度的部分变奏来计算下一个分段的部分变奏。
11.根据权利要求10所述的方法,其中每个部分具有至少一个可操作为呈现音频内容的音轨,每个部分具有至少一个适合于包含音频信息的片段。
12.一种可操作为执行用于以适合重排列的形式存储音频信息的音频执行应用的音频编辑装置,包括:
分解器,可操作为识别音频信息的音乐配乐,还可操作为将所述配乐分解成多个部分,每个所述部分定义所述配乐的一个可用作可重排列元素的分段;以及
部分鉴别器,可操作为辨别每个所述部分的函数,所述函数表明所述部分作为可重排列元素的顺序,所述部分响应于重排列器,所述重排列器用以基于所述函数按照特定顺序重组合所述部分,所组合的部分具有基于用户所指定的时间的总集合持续时间。
13.根据权利要求12所述的装置,其中每个所述部分还包括至少一个部分变奏,每个部分变奏具有一个独立的长度,所述部分变奏基于所述部分并可操作为提供类似的音频输出,所述分解器还可用于对每个部分计算至少一个表明了生成所述部分中的音频信息的源的子集的音轨。
14.根据权利要求13所述的装置,其中所述重排列器还可操作为:
基于所述函数从部分变奏中选择下一个部分变奏,所述下一个部分变奏具有相应函数和相应持续时间,使得所有所述部分的总持续时间大体上等于期望的持续时间;
通过对所选择的部分变奏进行排序和重复来重排列所述部分,以生成具有预定持续时间的部分集合;以及
重复所述选择步骤以向所述部分集合中添加下一个部分变奏。
15.根据权利要求14所述的装置,其中所述重排列器还包括重组合器,所述重组合器可操作为基于长度组合多个所述部分,使得所有所述部分的总长度大体上等于期望的持续时间。
16.根据权利要求12所述的装置,其中所述分解器可操作为:
识别适合作为音频信息的可重组合部分的所述配乐的分段,每个所述部分可操作为在部分的序列中位于其他特定部分的后面;
对于每个所述部分,确定表明所述部分在重组合的音频作品中的排序的函数;以及
以重排列器可访问的方式存储所述部分和相应的变奏,所述重排列器可操作为根据期望的预定持续时间重排列所述部分变奏。
17.根据权利要求16所述的装置,其中所述分解器还可操作为基于所述部分的所述持续时间和属性将音乐配乐分解成多个部分,所述属性还定义了包含在所述部分中的所述音频的可呈现特征。
18.根据权利要求17所述的装置,其中所述属性包括:
针对包含在所述部分中的所述音频信息的调节器,所述调节器可操作为选择性地修改包含在所述部分中的所述音轨的子集;以及
大小可调性属性,可操作为识别每个部分是可调整大小的还是不可调整大小的,和存储表明大小可调性的属性。
19.根据权利要求18所述的装置,还包括图形用户界面(GUI),所述部分响应于GUI,所述GUI还可操作为将所述部分重排列成部分集合,重排列还包括向当前的部分变奏的集合中添加下一个分段,所述下一个分段包括部分变奏,还包括通过识别具有相应函数和相应长度的部分变奏,计算所述下一个分段的部分变奏。
20.根据权利要求19所述的装置,其中每个部分具有至少一个可操作为呈现音频内容的音轨,每个部分具有至少一个适合于包含音频信息的片段。
21.一种计算机程序产品,具有可操作为存储以在其上编码的计算机程序代码实现的计算机程序逻辑的计算机可读媒介,所述计算机程序代码被编码为基于处理器的指令的编码集合,用于执行在存储区域网络中执行拓扑查询的方法,包括:
用于呈现音频分段的计算机程序代码,包括:
用于下述操作的计算机程序代码:将音频源分解成音频分段,每个音频分段具有持续时间和属性,所述属性包括函数;
对作为可呈现的音频作品的可重组合部分的多个音频分段进行排列,每个所述分段定义具有改变持续时间的部分变奏的部分;以及
用于基于所述函数和持续时间组合所述部分变奏以生成具有预定时长的重组合序列的计算机程序代码,所述函数表明所述组合的部分变奏的顺序。
22.根据权利要求21所述的计算机程序产品,其中用于分解的所述计算机程序代码还包括用于在多个量化的属性中定义歌曲的计算机程序代码,所述属性可操作为被重组得到具有可变持续时间的可呈现音频作品。
23.一种计算机可读媒介,包含在将音乐配乐存储为音频数据中使用的数据结构,所述数据结构包含:
多个容器,每个容器表现所述音乐配乐的适合当作音频信息的可重组合部分的分段,每个所述部分可操作为在部分序列中位于其他特定部分之后;
对于每个所述容器,包含表明所述部分在所重组合的音频作品中的顺序的函数;
对于每个所述容器,包含表明所述部分在所重组合的音频作品中的相对位置的类型;
对于每个所述容器,包含所述部分的至少一个部分变奏,部分的每个所述部分变奏具有不同的持续时间,所述部分变奏的所述持续时间适用于计算所重组合的一连串部分的集合持续时间;
对于每个所述部分变奏,包含至少一个音轨,每个音轨可用于呈现音频内容;以及
所述容器响应于音频应用,所述音频应用可操作为基于所述函数和持续时间组合所述部分变奏,以生成具有预定时长的重组合序列,所述函数表明所述所重组合的部分变奏的顺序。
24.根据权利要求23所述的数据结构,其中所述容器适用于以重排列器可访问的形式存储所述部分和相应部分变奏,所述重排列器可操作为根据期望的预定持续时间对所述部分变奏进行重排列。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US11/585,289 | 2006-10-23 | ||
US11/585,289 US7948981B1 (en) | 2006-10-23 | 2006-10-23 | Methods and apparatus for representing audio data |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101548257A true CN101548257A (zh) | 2009-09-30 |
Family
ID=39325355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2007800451150A Pending CN101548257A (zh) | 2006-10-23 | 2007-10-23 | 用于表现音频数据的方法和设备 |
Country Status (3)
Country | Link |
---|---|
US (1) | US7948981B1 (zh) |
CN (1) | CN101548257A (zh) |
WO (1) | WO2008052009A2 (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104768049A (zh) * | 2014-01-08 | 2015-07-08 | 奥多比公司 | 音频和视频同步感知模型 |
CN104778219A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 一种预设效果歌曲拼接的方法及装置 |
CN104778216A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 一种预设风格歌曲处理的方法及装置 |
CN104780438A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 一种视频与歌曲音频拼接的方法及装置 |
CN106935235A (zh) * | 2015-09-24 | 2017-07-07 | 卡西欧计算机株式会社 | 电子设备以及乐音控制方法 |
CN109346044A (zh) * | 2018-11-23 | 2019-02-15 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置及存储介质 |
CN112379857A (zh) * | 2020-11-24 | 2021-02-19 | 惠州Tcl移动通信有限公司 | 音频数据处理方法、装置、存储介质及移动终端 |
Families Citing this family (44)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8751022B2 (en) * | 2007-04-14 | 2014-06-10 | Apple Inc. | Multi-take compositing of digital media assets |
US20080256136A1 (en) * | 2007-04-14 | 2008-10-16 | Jerremy Holland | Techniques and tools for managing attributes of media content |
EP2159797B1 (en) | 2008-08-28 | 2013-03-20 | Nero Ag | Audio signal generator, method of generating an audio signal, and computer program for generating an audio signal |
US9190110B2 (en) * | 2009-05-12 | 2015-11-17 | JBF Interlude 2009 LTD | System and method for assembling a recorded composition |
US20130139057A1 (en) * | 2009-06-08 | 2013-05-30 | Jonathan A.L. Vlassopulos | Method and apparatus for audio remixing |
US9607655B2 (en) | 2010-02-17 | 2017-03-28 | JBF Interlude 2009 LTD | System and method for seamless multimedia assembly |
US11232458B2 (en) | 2010-02-17 | 2022-01-25 | JBF Interlude 2009 LTD | System and method for data mining within interactive multimedia |
US8600220B2 (en) | 2012-04-02 | 2013-12-03 | JBF Interlude 2009 Ltd—Israel | Systems and methods for loading more than one video content at a time |
US10165245B2 (en) | 2012-07-06 | 2018-12-25 | Kaltura, Inc. | Pre-fetching video content |
US8860882B2 (en) | 2012-09-19 | 2014-10-14 | JBF Interlude 2009 Ltd—Israel | Systems and methods for constructing multimedia content modules |
US9009619B2 (en) | 2012-09-19 | 2015-04-14 | JBF Interlude 2009 Ltd—Israel | Progress bar for branched videos |
US9257148B2 (en) | 2013-03-15 | 2016-02-09 | JBF Interlude 2009 LTD | System and method for synchronization of selectably presentable media streams |
US9236088B2 (en) | 2013-04-18 | 2016-01-12 | Rapt Media, Inc. | Application communication |
US9832516B2 (en) | 2013-06-19 | 2017-11-28 | JBF Interlude 2009 LTD | Systems and methods for multiple device interaction with selectably presentable media streams |
US10448119B2 (en) | 2013-08-30 | 2019-10-15 | JBF Interlude 2009 LTD | Methods and systems for unfolding video pre-roll |
US9530454B2 (en) | 2013-10-10 | 2016-12-27 | JBF Interlude 2009 LTD | Systems and methods for real-time pixel switching |
US9613605B2 (en) * | 2013-11-14 | 2017-04-04 | Tunesplice, Llc | Method, device and system for automatically adjusting a duration of a song |
US9641898B2 (en) | 2013-12-24 | 2017-05-02 | JBF Interlude 2009 LTD | Methods and systems for in-video library |
US9520155B2 (en) | 2013-12-24 | 2016-12-13 | JBF Interlude 2009 LTD | Methods and systems for seeking to non-key frames |
US9653115B2 (en) | 2014-04-10 | 2017-05-16 | JBF Interlude 2009 LTD | Systems and methods for creating linear video from branched video |
US9792026B2 (en) | 2014-04-10 | 2017-10-17 | JBF Interlude 2009 LTD | Dynamic timeline for branched video |
US9448762B2 (en) | 2014-06-30 | 2016-09-20 | Microsoft Technology Licensing, Llc | Precognitive interactive music system |
US9792957B2 (en) | 2014-10-08 | 2017-10-17 | JBF Interlude 2009 LTD | Systems and methods for dynamic video bookmarking |
US11412276B2 (en) | 2014-10-10 | 2022-08-09 | JBF Interlude 2009 LTD | Systems and methods for parallel track transitions |
CN107622775B (zh) * | 2015-03-20 | 2020-12-18 | Oppo广东移动通信有限公司 | 含噪声歌曲拼接的方法及相关产品 |
US10582265B2 (en) | 2015-04-30 | 2020-03-03 | JBF Interlude 2009 LTD | Systems and methods for nonlinear video playback using linear real-time video players |
US9672868B2 (en) | 2015-04-30 | 2017-06-06 | JBF Interlude 2009 LTD | Systems and methods for seamless media creation |
US10460765B2 (en) | 2015-08-26 | 2019-10-29 | JBF Interlude 2009 LTD | Systems and methods for adaptive and responsive video |
US11164548B2 (en) | 2015-12-22 | 2021-11-02 | JBF Interlude 2009 LTD | Intelligent buffering of large-scale video |
US11128853B2 (en) | 2015-12-22 | 2021-09-21 | JBF Interlude 2009 LTD | Seamless transitions in large-scale video |
US10462202B2 (en) | 2016-03-30 | 2019-10-29 | JBF Interlude 2009 LTD | Media stream rate synchronization |
US11856271B2 (en) | 2016-04-12 | 2023-12-26 | JBF Interlude 2009 LTD | Symbiotic interactive video |
US10218760B2 (en) | 2016-06-22 | 2019-02-26 | JBF Interlude 2009 LTD | Dynamic summary generation for real-time switchable videos |
US11050809B2 (en) | 2016-12-30 | 2021-06-29 | JBF Interlude 2009 LTD | Systems and methods for dynamic weighting of branched video paths |
US11024276B1 (en) | 2017-09-27 | 2021-06-01 | Diana Dabby | Method of creating musical compositions and other symbolic sequences by artificial intelligence |
US10257578B1 (en) | 2018-01-05 | 2019-04-09 | JBF Interlude 2009 LTD | Dynamic library display for interactive videos |
GB2571340A (en) * | 2018-02-26 | 2019-08-28 | Ai Music Ltd | Method of combining audio signals |
US11601721B2 (en) | 2018-06-04 | 2023-03-07 | JBF Interlude 2009 LTD | Interactive video dynamic adaptation and user profiling |
US11490047B2 (en) | 2019-10-02 | 2022-11-01 | JBF Interlude 2009 LTD | Systems and methods for dynamically adjusting video aspect ratios |
US12096081B2 (en) | 2020-02-18 | 2024-09-17 | JBF Interlude 2009 LTD | Dynamic adaptation of interactive video players using behavioral analytics |
US11245961B2 (en) | 2020-02-18 | 2022-02-08 | JBF Interlude 2009 LTD | System and methods for detecting anomalous activities for interactive videos |
US12047637B2 (en) | 2020-07-07 | 2024-07-23 | JBF Interlude 2009 LTD | Systems and methods for seamless audio and video endpoint transitions |
US11882337B2 (en) | 2021-05-28 | 2024-01-23 | JBF Interlude 2009 LTD | Automated platform for generating interactive videos |
US11934477B2 (en) | 2021-09-24 | 2024-03-19 | JBF Interlude 2009 LTD | Video player integration within websites |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5267318A (en) * | 1990-09-26 | 1993-11-30 | Severson Frederick E | Model railroad cattle car sound effects |
US5728962A (en) * | 1994-03-14 | 1998-03-17 | Airworks Corporation | Rearranging artistic compositions |
US6449661B1 (en) * | 1996-08-09 | 2002-09-10 | Yamaha Corporation | Apparatus for processing hyper media data formed of events and script |
US6052508A (en) * | 1997-04-04 | 2000-04-18 | Avid Technology, Inc. | User interface for managing track assignment for portable digital moving picture recording and editing system |
US6400378B1 (en) * | 1997-09-26 | 2002-06-04 | Sony Corporation | Home movie maker |
US20010012304A1 (en) * | 1997-11-12 | 2001-08-09 | At&T Corp. | High quality multimedia communications ` |
JP3722015B2 (ja) * | 2001-06-15 | 2005-11-30 | ヤマハ株式会社 | 楽音生成装置 |
US7424202B2 (en) * | 2003-07-29 | 2008-09-09 | Sony Corporation | Editing system and control method using a readout request |
US20070261537A1 (en) * | 2006-05-12 | 2007-11-15 | Nokia Corporation | Creating and sharing variations of a music file |
-
2006
- 2006-10-23 US US11/585,289 patent/US7948981B1/en active Active
-
2007
- 2007-10-23 WO PCT/US2007/082295 patent/WO2008052009A2/en active Application Filing
- 2007-10-23 CN CNA2007800451150A patent/CN101548257A/zh active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10290322B2 (en) | 2014-01-08 | 2019-05-14 | Adobe Inc. | Audio and video synchronizing perceptual model |
CN104768049A (zh) * | 2014-01-08 | 2015-07-08 | 奥多比公司 | 音频和视频同步感知模型 |
US10559323B2 (en) | 2014-01-08 | 2020-02-11 | Adobe Inc. | Audio and video synchronizing perceptual model |
CN104778219A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 一种预设效果歌曲拼接的方法及装置 |
CN104778216A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 一种预设风格歌曲处理的方法及装置 |
CN104780438A (zh) * | 2015-03-20 | 2015-07-15 | 广东欧珀移动通信有限公司 | 一种视频与歌曲音频拼接的方法及装置 |
WO2016150275A1 (zh) * | 2015-03-20 | 2016-09-29 | 广东欧珀移动通信有限公司 | 一种预设风格歌曲处理的方法及装置 |
CN104778216B (zh) * | 2015-03-20 | 2017-05-17 | 广东欧珀移动通信有限公司 | 一种预设风格歌曲处理的方法及装置 |
CN104778219B (zh) * | 2015-03-20 | 2018-05-29 | 广东欧珀移动通信有限公司 | 一种预设效果歌曲拼接的方法及装置 |
US10031714B2 (en) | 2015-03-20 | 2018-07-24 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and device for processing audio files |
CN106935235A (zh) * | 2015-09-24 | 2017-07-07 | 卡西欧计算机株式会社 | 电子设备以及乐音控制方法 |
CN106935235B (zh) * | 2015-09-24 | 2021-03-09 | 卡西欧计算机株式会社 | 电子设备以及乐音控制方法 |
CN109346044A (zh) * | 2018-11-23 | 2019-02-15 | 广州酷狗计算机科技有限公司 | 音频处理方法、装置及存储介质 |
CN112379857A (zh) * | 2020-11-24 | 2021-02-19 | 惠州Tcl移动通信有限公司 | 音频数据处理方法、装置、存储介质及移动终端 |
CN112379857B (zh) * | 2020-11-24 | 2022-01-04 | 惠州Tcl移动通信有限公司 | 音频数据处理方法、装置、存储介质及移动终端 |
Also Published As
Publication number | Publication date |
---|---|
WO2008052009A3 (en) | 2008-10-09 |
US7948981B1 (en) | 2011-05-24 |
WO2008052009A2 (en) | 2008-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101548257A (zh) | 用于表现音频数据的方法和设备 | |
JP6736186B2 (ja) | オーディオ・ファイルを生成するためのシステム及び方法 | |
CN110603537B (zh) | 增强的内容跟踪系统和方法 | |
US7792782B2 (en) | Internet music composition application with pattern-combination method | |
US20200401619A1 (en) | Transitions between media content items | |
US20050235811A1 (en) | Systems for and methods of selection, characterization and automated sequencing of media content | |
US7541534B2 (en) | Methods and apparatus for rendering audio data | |
US8969700B2 (en) | Systems and methods of selection, characterization and automated sequencing of media content | |
US9459828B2 (en) | Musically contextual audio advertisements | |
US6657116B1 (en) | Method and apparatus for scheduling music for specific listeners | |
JP4343330B2 (ja) | シーケンス情報生成方法及びシーケンス情報生成システム | |
CN1838229B (zh) | 重放装置和重放方法 | |
US20140121797A1 (en) | System and Method for Combining a Song and Non-Song Musical Content | |
Bittner et al. | Automatic Playlist Sequencing and Transitions. | |
US20070261537A1 (en) | Creating and sharing variations of a music file | |
US20100250510A1 (en) | System and method of multimedia content editing | |
Cliff | Hang the DJ: Automatic sequencing and seamless mixing of dance-music tracks | |
WO2007036824A2 (en) | Method and apparatus for processing audio for playback | |
JP2007519048A (ja) | 音楽入力信号の速度の曖昧さの指標を決定する方法及びシステム、音声処理装置、運動器具、コンピュータープログラム、記憶媒体 | |
US8649891B2 (en) | Audio signal generator, method of generating an audio signal, and computer program for generating an audio signal | |
CN102664031A (zh) | 具导航特性的音乐推荐系统与方法 | |
US7612279B1 (en) | Methods and apparatus for structuring audio data | |
JP6733240B2 (ja) | コンテンツの一覧の更新方法 | |
Stoller et al. | Intuitive and efficient computer-aided music rearrangement with optimised processing of audio transitions | |
CN117337560A (zh) | 视频混音方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20090930 |