CN110599985B - 一种音频内容生成方法、服务端设备和客户端设备 - Google Patents

一种音频内容生成方法、服务端设备和客户端设备 Download PDF

Info

Publication number
CN110599985B
CN110599985B CN201810600059.2A CN201810600059A CN110599985B CN 110599985 B CN110599985 B CN 110599985B CN 201810600059 A CN201810600059 A CN 201810600059A CN 110599985 B CN110599985 B CN 110599985B
Authority
CN
China
Prior art keywords
element content
accompaniment
tone
content
music
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810600059.2A
Other languages
English (en)
Other versions
CN110599985A (zh
Inventor
孙浩华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alibaba Group Holding Ltd
Original Assignee
Alibaba Group Holding Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alibaba Group Holding Ltd filed Critical Alibaba Group Holding Ltd
Priority to CN201810600059.2A priority Critical patent/CN110599985B/zh
Publication of CN110599985A publication Critical patent/CN110599985A/zh
Application granted granted Critical
Publication of CN110599985B publication Critical patent/CN110599985B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

本申请提供了一种音频内容生成方法、服务端设备和客户端设备,其中,该方法包括:获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;合成所述音色元素内容和所述伴奏元素内容,得到音频内容;将所述音频内容传送至客户端。通过上述方案解决了现在的编曲操作对专业性要求过高的问题,达到了简单高效进行编曲的技术效果。

Description

一种音频内容生成方法、服务端设备和客户端设备
技术领域
本申请属于数据处理技术领域,尤其涉及一种音频内容生成方法、服务端设备和客户端设备。
背景技术
目前,一般需要专业人士才能完成编曲工作,这主要是因为编曲工作中所涉及到的技术性操作比较多,例如:旋律的重复、转调、模糊、音程或节奏压扩等,这些需要专业人士才懂。这也就导致,对于音乐知识不是很强的人,很难完成编曲操作。
现有的音乐软件一般也仅是支持对音乐的下载、播放都操作,有些提供编曲功能的软件,需要特别专业的人士才会操作,因此,导致编曲的壁垒比较高,也就是编曲的难度比较高。
针对现有的编曲难度较高的问题,目前尚未提出有效的解决方案。
发明内容
本申请目的在于提供一种音频内容生成方法、服务端设备和客户端设备,可以实现简单高效生成音频内容的效果。
本申请提供一种音频内容生成方法、服务端设备和客户端设备是这样实现的:
一种音频内容生成方法,所述方法包括:
获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
将所述音频内容传送至客户端。
一种音频内容生成方法,所述方法包括:
提供一显示界面,显示多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
接收用户对多个音乐元素的选择项的选择结果;
将所述选择结果传送服务器端,其中,所述服务器用于根据所述选择结果确定音色元素内容和伴奏元素内容,并合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容。
一种音频内容生成方法,所述方法包括:
获取用户选择的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容。
一种服务端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
将所述音频内容传送至客户端。
一种客户端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
提供一显示界面,显示多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
接收用户对多个音乐元素的选择项的选择结果;
将所述选择结果传送服务器端,其中,所述服务器用于根据所述选择结果确定音色元素内容和伴奏元素内容,并合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容。
一种客户端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
获取用户选择的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容。
一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现上述方法的步骤。
本申请提供的音频内容生成方法、服务端设备和客户端设备,用户仅需要在客户端设备上选择音乐元素的选择项,后台就可以完成编曲,即可以生成音频内容,不需要用户具备太多的编曲知识就可以完成编曲,从而解决了现在的编曲操作对专业性要求过高的问题,达到了简单高效进行编曲的技术效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请提供的编曲系统的架构示意图;
图2是本申请提供的编曲过程的交互流程图;
图3是本申请提供的音乐作品生成示意图;
图4是本申请提供的编曲文件生成结果展示的界面示意图;
图5是本申请提供的编曲元素选择的界面示意图;
图6是本申请提供的音频内容生成方法的方法流程图;
图7是本申请提供的服务端设备的架构图;
图8是本申请提供的音频内容生成装置的结构框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请中的技术方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
考虑到现有的作曲过程所存在的专业性需求过高,导致作曲过程过于复杂的问题,如果采用AI(Artificial Intelligence)人工智能的方式进行自动作曲,那么可以使得不具有作曲专业性的人也能实现作曲,从而可以简单的实现音乐作品的创造和生成。
为此,在本例中提供了一种作曲系统,如图1所示,该系统包括:客户端设备101、服务端设备102,其中,客户端设备101用于为用户提供作曲界面,供用户进行输入选择,并为用户展示作曲结果。服务端设备102用于获取用户输入的或者选择的信息,并基于用户输入的或者选择的信息,进行自动编曲,并将编曲结果发送至客户端设备101。
在实际实现的,对于编曲的部分可以在服务器端执行,即,如图1所示的架构,也可以所有的操作都在客户端设备中完成。具体可以根据设备的处理能力,以及用户使用场景的限制等进行选择。例如,用户可以在线编曲,也可以离线编曲。本申请对此不作限定。
上述客户端设备101可以是手机、平板电脑、可穿戴设备、台式电脑、一体机等等,或者用户编曲的APP,例如:编曲软件、音乐软件、影视软件等等,客户端设备101的具体形式本申请不作限定。
为了使得用户编曲的过程灵活性更高,客户端设备101可以提供不同的编曲输入界面供用户选择。例如:可以为用户提供可视化选择的界面,也可以是为用户提供编曲元素输入界面。用户在打开具备编曲功能的软件之后,可以根据自身的喜好或者习惯选择输入界面的类型。
如图2所示,可以在界面上显示多个编曲元素:风格、心情、节奏等,然后,用户对不同的编曲元素进行触发,以选择具体的编曲元素的详细选择项。例如,用户点击风格,显示多个风格选择项:民谣、流行、摇滚。用户点击节奏,显示多个节奏选择项:快节奏、一般节奏和慢节奏。用户点击心情,显示多个心情选择项:忧伤、不安、温柔。用户通过点击风格选择项、节奏选择项和心情选择项,生成用户对编曲元素的设定结果。
客户端设备将用户设定的编曲元素发送至服务器端,服务器端可以对用户设定的编曲元素进行格式化处理,例如,在服务器端可以设置一个格式化输入列表,该列表中设置有多个编曲元素以及每个编曲元素对应得到取值,例如:风格、心情、节奏,然后对于每个编曲元素都设置一个用于填充的字段,该字段用于根据用户设定的编曲元素填写,例如:风格选择为流行,那么对应的风格字段的选项就填充为流行。在具体实现的时候,可以采用文字的方式对字段进行填充,也可以采用数字或者字符串与选项对应的关系进行填充,例如:流行对应的数字为2,那么可以将2条虫至风格字段中,这样对于服务器而言,基于字段中的2就知道用户选择的风格是流行。
在得到格式化后的数据之后,可以作为服务端AI作曲模型的输入,即,AI作曲模型的输入数据是对用户设定的编曲元素进行格式化处理后得到的。对于AI作曲模型而言,即,对于服务器端而言,可以根据模型的输入数据到预先建立的音色库、伴奏库中进行匹配调用,在调用之后对调取对应的音色元素内容和伴奏元素内容,然后将调取的音色元素内容和伴奏元素内容进行合成,得到编曲文件。
然而,上述所列举的编曲元素,以及每个编曲元素对应的多个选项仅是一种示例性说明,在实际实现的时候,还可以有其它的编曲元素和选项,可以根据实际的需求设定,本申请对此不作限定。
其中,音色(Timbre),又称音品,是指不同的物体震动产生的声音频率表现在波形方面总是有与众不同的特性,在本例中,音色可以是乐器特征。音色库就是众多不同种类的乐器演奏获得的音频采样,其中,音频采样率可以是24bit或者更高。例如:纯木吉他音色库包括:尼龙、钢弦、12弦、低音等吉他的音色。音色库中就存储有多种乐器的音频采样。可以根据用户设定的编曲元素进行匹配,以得到用于合成编曲的音色元素内容。
其中,伴奏就是旋律,伴奏库也就是旋律库,是指若干乐音经过组合形成的有组织、有节奏的序列,按一定的音高、时值和音量构成的、具有逻辑因素的单声部进行的。旋律由许多音乐基本要素(例如:调式、节奏、节拍、力度、音色等)结合而成。
在实现的时候,服务器端根据用户设定的编曲元素,从音色库和伴奏库中获取到音色元素内容和伴奏元素内容之后,可以对音色元素内容和伴奏元素内容进行合成,得到编曲文件。对于形成的编曲文件,可以进行格式转换,以转换为音频内容。其中,该音频内容可以是音频文件,也可以是媒体流内容,具体采用哪种形式呈现可以根据实际需要选择,本申请对此不作限定。
因为伴奏库、音色库的设置,使得服务器端可以从伴奏库和音色库中选择伴奏元素内容和音色元素内容进行最终编曲文件的合成,这就使得重复、转调、模糊、音程或节奏压扩,和声与对位中的音高纵横向排列组合,配器中的音色组合,曲式中的并行、对置、回旋、奏鸣等都不需要用户进行设置和选择,这些都在伴奏库和音色库的文件当中,只需要匹配出音色元素内容和伴奏元素内容进行合成即可,从而使得非专业人士也能进行编曲。
其中,上述伴奏库和音色库中的伴奏元素内容和音色元素内容都是可以实时更新的,例如,后台人员可以整理一批伴奏元素内容和音色元素内容添加至伴奏库和音色库中,也可以提供用户自己上传伴奏库和音色库的方式等等,一般是的音色库和伴奏库中的资源更为丰富。
对于伴奏元素内容和音色元素内容而言,可以是预先设定好每个伴奏元素内容所对应的风格、心情和节奏,以及设定好每个音色元素内容所对应的风格、心情和节奏。这样对于伴奏库和音色库中的文件而言,可以进行聚类,例如:哪些伴奏元素内容是开心的、快节奏的、摇滚的,哪些伴奏元素内容是忧伤的、慢节奏的、电子乐;哪些音色元素内容是开心的、快节奏的、摇滚的,哪些音色元素内容是忧伤的、慢节奏的、电子乐。这样在进行文件匹配的时候,就可以根据输入条件,直接匹配到对应的伴奏元素内容集和音色元素内容集。然后,可以随机从对应的文件集中选择伴奏元素内容或音色元素内容。其中,音色库和伴奏库中的文件可以是不断增多的,使得最终形成的结果变得越来越多样化。
在上例中,是以从伴奏库、音色库等匹配库中进行匹配,以确定音色元素内容、伴奏元素内容等为例进行的说明。然而,在实际实现的时候,还可以采用其它的方式确定音色元素内容和伴奏元素内容等。例如,可以采用机器学习的方式计算得到的。例如,可以获取客户端发送来的多个音乐元素的选择项(例如:用户选择的具体的风格、心情、节奏),然后将这些选择项作为模型的输入数据输入到预设的机器模型中,通过机器模型,确定出音色元素内容、伴奏元素内容等。机器模型得到的音色元素内容、伴奏元素内容等,可以是从数据库中获取的,也可以是机器模型通过输入数据合成的,具体采用哪种方式可以实际的处理能力等选择,本申请对此不作限定。
对于生成的音频内容,用户可以进行试听、存储、转发等操作,具体采用哪种后续操作,本申请对此不作限定。
因为本申请的编曲方式,是为了为用户提供一个简单的编曲方法,以便给用户音乐灵感,一次所合成的编曲文件不一定是用户喜欢的,用户可以进行多次编曲,得到不同的编曲文件,或者是一直进行编曲直至得到自己喜欢的编曲文件。
需要说明的是,对于上述音色库和伴奏库而言,对于每个编曲元素和每个编曲元素对应的选择项,都是对应着多个音色元素内容和伴奏元素内容的。在用户选择的编曲元素相同的情况下,最终匹配得到的音色元素内容和伴奏元素内容大概率是不同的。用户即使两次设定了相同的编曲元素,最终得到的编曲文件也很大概率是不同的。因为,对于音色库和伴奏库而言,里面的文件是多样化的,每次匹配到的文件都可能是不同的。例如,选定的输入项为“流行、快乐、快节奏”,第一次选定这三个输入项的时候,生成第一个编曲结果,第二次还选定这三个输入项,生成第二编曲结果,第一编曲结果与第二编曲结果大概率是不同的。因为同样是流行、快乐和快节奏,在音色库中可以匹配到多个音色元素内容,在伴奏库中可以匹配到多个伴奏元素内容。这样就使得每次相同输入项,输出的结果也是不同的。
为此,在实现的时候,用户在输入一次选择项之后,可以生成第一编曲结果,在试听第一编曲结果之后,用户可以点击“基于现有条件重新编曲”,然后,基于当前的选择项重新进行编曲,得到第二编曲结果。如果用户希望重新输入选择项,那么可以在试听完成之后,点击“重新选择编曲元素”,然后触发一个全新的选择编曲元素、生成编曲结果文件的流程。
在一个实施方式中,考虑到有时候编曲是需要填词的,有时是不需要填词的,因此,在编曲之前,可以为用户设置一个选择项,用户选择是否需要填词,如果选择需要填词,那么用户可以上传歌词文件。那么在进行编曲元素选择的时候,可以设置一个人声的编曲元素供用户进行选择。例如,用户可以选择:男中音、男低音、女高音等等。
在生成编曲文件的时候,可以将编曲结果与歌词内容以及匹配得到的模拟人声进行融合,得到最终的带有歌词的歌曲文件。为了可以匹配到模拟人声,可以设置模拟人声库,该模拟人声库与上述的音色库和伴奏库是一个平行的概念,都是AI作曲模型在作曲的过程中需要匹配的数据库:基于用户选定的编曲元素,从音色库中匹配得到音色元素内容,从伴奏库中匹配得到伴奏元素内容,从模拟人声库中匹配得到模拟人声文件。
为了使得用户在进行编曲过程中的趣味性更高,以提高用户体验,可以为每个编曲元素映射场景内容。例如,如果是在某些地方举行音乐节的展出,那么可以通过这些地方的建筑或者特色美食等来标识编曲元素。例如,标志建筑对应风格(园林对应流行、寺庙对应民谣等);美食对应节奏(汤包对应快节奏、糕点对应慢节奏等)。
然而,值得注意的是,上述所列举的通过其它标志性内容来映射编曲元素仅是一种示例性描述,在实际实现的时候,可以根据实际的应用场景等设置不同的映射关系,本申请对此不作限定。
如图3所示,整个编曲过程可以包括:条件输入、条件分析、作曲、音频合成、音乐生成与二次加工。其中,条件输入可以是用户选择风格、心情、节奏、人声等等;条件分析可以是对用户输入的条件进行分析,基于AI作曲模型从伴奏库、音色库和模拟人声库中匹配得到伴奏元素内容、音色元素内容和模拟人声文件;音频合成可以是将上述匹配得到的伴奏元素内容、音色元素内容和模拟人声文件进行音频合成,得到音频内容;音乐生成与二次加工,可以是对上述音频内容进行处理,例如:降噪、优化等处理后,如图4所示,得到最终的编曲结果文件或音乐结果文件。
下面结合一个具体场景实例对上述编曲方法进行说明,然而,值得注意的是,该具体实施例仅是更为更好地说明本申请,并不构成对本申请的不当限定。
如图5所示,前端设备,即,客户端设备显示编曲界面,用户打开对应的编曲软件之后,可以通过如图5所示的界面上述通过点选操作进行选择:风格(例如:流行、摇滚、民谣、电子)、心情(例如:快乐、振奋、舒缓、温暖、伤感)、节奏(例如快节奏、中等节奏、缓慢节奏)。在设置节奏的时候,可以通过设置BPM值的方式设置节奏。其中,BPM(BeatPer Minute,拍子数)即,每分钟节拍数的单位,就是在一分钟的时间段落之间,所发出的声音节拍的数量,这个数量的单位便是BPM。
对于用户而言,仅需要进行如图4所示的选择操作即可,不需要知道太多的音乐常识,例如:旋律的重复、转调、模糊、音程或节奏压扩;和声与对位中的音高纵横向排列组合;配器中的音色组合;曲式中的并行、对置、回旋、奏鸣等这些都是不需要用户操作的,都是集成在音色元素内容和伴奏元素内容中的。通过这种方式使得,用户通过手机等移动设备就可以随时随地进行编曲,从而进行音乐内容的创作与生成。
为了提升音乐创造的乐趣,提升用户体验,AI作曲中的“风格”、“节奏”、“心情”等及其下级对应的选择条件,都可以与特定的场景或者实物映射,即,保证实际服务端接口的数据不变,在客户端设备的用户前段可以通过其它可变形的、有趣的选择界面设置。例如:在西安的某音乐节展中,“风格”可以对应西安标志性“标志建筑”,例如:“流行”对应“钟楼”,“心情”可以对应西安的“特色小吃”,例如:“开心”对应“肉夹馍”等。通过这种场景映射的关系,可以使得编曲的过程的趣味性更高。
在实现的时候,如果用户在选择作曲输入项的同时填写了歌词,那么可以通过模拟人声来演绎对应的歌词内容,同时,与编曲结果进行融合,可以得到一首完整的歌曲,即,将上述的AI编曲改变为了AI写歌。如果用户没有填写歌词或者默认歌词项是空白的,那么就触发一个编曲过程,而不是写歌过程。
在上例的方案中,用户通过简单的操作就可以完成编曲,操作过程简单、快捷。且这种编曲方法,不需要用户有特定的音乐素养,几乎每个人通过这个方式都可以实现编曲。同时对于有音乐基础的高级用户而言,创造过程也变得更为简单,且成本更低。
图6是本申请所述一种音频内容生成方法一个实施例的方法流程图。虽然本申请提供了如下述实施例或附图所示的方法操作步骤或装置结构,但基于常规或者无需创造性的劳动在所述方法或装置中可以包括更多或者更少的操作步骤或模块单元。在逻辑性上不存在必要因果关系的步骤或结构中,这些步骤的执行顺序或装置的模块结构不限于本申请实施例描述及附图所示的执行顺序或模块结构。所述的方法或模块结构的在实际中的装置或终端产品应用时,可以按照实施例或者附图所示的方法或模块结构连接进行顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至分布式处理环境)。
具体的如图6所示,本申请一种实施例提供的一种音频内容生成方法可以包括:
步骤601:获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
其中,风格的选择项可以但不限于包括:民谣、流行、摇滚,节奏的选择项可以但不限于包括:快节奏、一般节奏和慢节奏,心情的选择项可以包括但不限于:开心、忧伤、温暖、振奋。
然而,值得注意的是,上述所列举的音乐元素,以及各个音乐元素对应的选择项仅是一种示例性描述,并不构成对本申请的不当限定。其中,音乐元素对应上文中的编曲元素。
步骤602:根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
考虑到从客户端过来的数据,对于服务器端而言不是很容易处理的,为了使得服务器端可以对数据进行集中有效的处理,可以对对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系。
然后,可以根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
即,可以设置伴奏库和音色库,里面存储有多个伴奏元素内容和音色元素内容,可以基于用户选定的各个音乐元素的选择项,到音色库和伴奏库中进行匹配,以得到匹配的伴奏元素内容和音色元素内容。
步骤603:合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
步骤604:将所述音频内容传送至客户端。
上述伴奏库和音色库中伴奏元素内容和音色元素内容可以是不断丰富的,即,可以是不断更新完善的,为此,可以接收音色元素内容和/或伴奏元素内容,然后,将接收的音色元素内容存入音色库中,将接收的伴奏元素内容存入伴奏库中。以便使得得到编曲结果更为多样化。
在进行音频内容生成的时候,不仅可以生成编曲文件,还可以生成带有歌词的音乐文件,即,上述的音乐元素还可以包括:人声,即,用户可以选择是男高音,还是女中音等等。为了生成音乐文件,用户可以上传一个歌词文件,根据所述多个音乐元素的选择项,匹配得到音色元素内容和伴奏元素内容,可以包括:根据所述多个音乐元素的选择项,匹配得到音色元素内容、伴奏元素内容和模拟人声文件。
在仅完成合成操作生成的并未是完整有效的音频内容,因此合成所述音色元素内容和所述伴奏元素内容,得到音频内容,可以包括:将所述音色元素内容和所述伴奏元素内容进行作曲合成;将所述作曲合成结果,进行音频格式转换,得到音频内容。即,增加一个转换操作,使得作曲合成结果可以转换为可以播放的音频内容。
对于客户端设备而言,一种音频内容生成方法,可以包括:
S1:提供一显示界面,显示多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
S2:接收用户对多个音乐元素的选择项的选择结果;
S3:将所述选择结果传送服务器端,其中,所述服务器用于根据所述选择结果确定音色元素内容和伴奏元素内容,并合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
S4:播放所述音频内容。
即,对于客户端设备而言,可以是主要为用户提供选择界面,以及接收并播放生成的音频内容。
考虑到如果是所有的执行流程都在客户端侧执行,那么可以包括:
S1:获取用户选择的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
S2:根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
S3:合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
S4:播放所述音频内容。
本申请所提供的方法实施例可以在移动终端、计算机终端、服务器端或者类似的运算装置中执行。以运行在服务器端为例,图7是本发明实施例的一种音频内容生成方法的计算机终端的硬件结构框图。如图7所示,计算机终端10可以包括一个或多个(图中仅示出一个)处理器102(处理器102可以包括但不限于微处理器MCU或可编程逻辑器件FPGA等的处理装置)、用于存储数据的存储器104、以及用于通信功能的传输模块106。本领域普通技术人员可以理解,图7所示的结构仅为示意,其并不对上述电子装置的结构造成限定。例如,计算机终端10还可包括比图7中所示更多或者更少的组件,或者具有与图7所示不同的配置。
存储器104可用于存储应用软件的软件程序以及模块,如本发明实施例中的音频内容生成方法对应的程序指令/模块,处理器102通过运行存储在存储器104内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的应用程序的音频内容生成方法。存储器104可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器104可进一步包括相对于处理器102远程设置的存储器,这些远程存储器可以通过网络连接至计算机终端10。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
传输模块106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括计算机终端10的通信供应商提供的无线网络。在一个实例中,传输模块106包括一个网络适配器(Network Interface Controller,NIC),其可通过基站与其他网络设备相连从而可与互联网进行通讯。在一个实例中,传输模块106可以为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
在软件层面,如图8所示,上述音频内容生成装置可以包括:获取模块801、匹配模块802、合成模块803和传送模块804,其中:
获取模块801,用于获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
确定模块802,用于根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成模块803,用于合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
传送模块804,用于将所述音频内容传送至客户端。
在一个实施方式中,确定模块802具体可以对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
在一个实施方式中,上述音频内容生成装置还可以接收音色元素内容和/或伴奏元素内容;将接收的音色元素内容存入音色库中,将接收的伴奏元素内容存入伴奏库中。
在一个实施方式中,上述音乐元素还可以包括:人声;相应的,根据所述多个音乐元素的选择项,匹配得到音色元素内容和伴奏元素内容,可以包括:根据所述多个音乐元素的选择项,匹配得到音色元素内容、伴奏元素内容和模拟人声文件。
在一个实施方式中,上述风格的选择项可以包括:民谣、流行、摇滚,节奏的选择项可以包括:快节奏、一般节奏和慢节奏,心情的选择项可以包括:开心、忧伤、温暖、振奋。
在一个实施方式中,合成模块803具体可以将所述音色元素内容和所述伴奏元素内容进行作曲合成;将所述作曲合成结果,进行音频格式转换,得到音频内容。
在上例中,提供了一种音频内容生成方法、服务端设备和客户端设备,用户仅需要在客户端设备上选择音乐元素的选择项,后台就可以完成编曲,即可以生成音频内容,不需要用户具备太多的编曲知识就可以完成编曲,从而解决了现在的编曲操作对专业性要求过高的问题,达到了简单高效进行编曲的技术效果。
虽然本申请提供了如实施例或流程图所述的方法操作步骤,但基于常规或者无创造性的劳动可以包括更多或者更少的操作步骤。实施例中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或客户端产品执行时,可以按照实施例或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境)。
上述实施例阐明的装置或模块,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。在实施本申请时可以把各模块的功能在同一个或多个软件和/或硬件中实现。当然,也可以将实现某功能的模块由多个子模块或子单元组合实现。
本申请中所述的方法、装置或模块可以以计算机可读程序代码方式实现控制器按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、MicrochipPIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内部包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
本申请所述装置中的部分模块可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构、类等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的硬件的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,也可以通过数据迁移的实施过程中体现出来。该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,移动终端,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例采用递进的方式描述,各个实施例之间相同或相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。本申请的全部或者部分可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、移动通信终端、多处理器系统、基于微处理器的系统、可编程的电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。
虽然通过实施例描绘了本申请,本领域普通技术人员知道,本申请有许多变形和变化而不脱离本申请的精神,希望所附的权利要求包括这些变形和变化而不脱离本申请的精神。

Claims (17)

1.一种音频内容生成方法,其特征在于,所述方法包括:
获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
将所述音频内容传送至客户端;
其中,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;
根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;
根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
2.根据权利要求1所述的方法,其特征在于,还包括:
接收音色元素内容和/或伴奏元素内容;
将接收的音色元素内容存入音色库中,将接收的伴奏元素内容存入伴奏库中。
3.根据权利要求1所述的方法,其特征在于,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
将所述多个音乐元素的选择项输入预设的机器学习模型;
通过所述机器学习模型生成音色元素内容和伴奏元素内容。
4.根据权利要求1所述的方法,其特征在于,所述音乐元素还包括:人声;
相应的,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
根据所述多个音乐元素的选择项,匹配得到音色元素内容、伴奏元素内容和模拟人声文件。
5.根据权利要求1至4中任一项所述的方法,其特征在于,风格的选择项包括:民谣、流行、摇滚,节奏的选择项包括:快节奏、一般节奏和慢节奏,心情的选择项包括:开心、忧伤、温暖、振奋。
6.根据权利要求1至4中任一项所述的方法,其特征在于,合成所述音色元素内容和所述伴奏元素内容,得到音频内容,包括:
将所述音色元素内容和所述伴奏元素内容进行作曲合成;
将所述作曲合成结果,进行音频格式转换,得到音频内容。
7.一种音频内容生成方法,其特征在于,所述方法包括:
提供一显示界面,显示多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
接收用户对多个音乐元素的选择项的选择结果;
将所述选择结果传送服务器端,其中,所述服务器用于根据所述选择结果确定音色元素内容和伴奏元素内容,并合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容;
其中,根据所述选择结果确定音色元素内容和伴奏元素内容,包括:
对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;
根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;
根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
8.一种音频内容生成方法,其特征在于,所述方法包括:
获取用户选择的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容;
其中,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;
根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;
根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
9.一种服务端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
获取客户端发送来的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
将所述音频内容传送至客户端;
其中,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;
根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;
根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
10.根据权利要求9所述的服务端设备,其特征在于,还包括:
接收音色元素内容和/或伴奏元素内容;
将接收的音色元素内容存入音色库中,将接收的伴奏元素内容存入伴奏库中。
11.根据权利要求9所述的服务端设备,其特征在于,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
将所述多个音乐元素的选择项输入预设的机器学习模型;
通过所述机器学习模型生成音色元素内容和伴奏元素内容。
12.根据权利要求9所述的服务端设备,其特征在于,所述音乐元素还包括:人声;
相应的,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
根据所述多个音乐元素的选择项,确定音色元素内容、伴奏元素内容和模拟人声文件。
13.根据权利要求9至12中任一项所述的服务端设备,其特征在于,风格的选择项包括:民谣、流行、摇滚,节奏的选择项包括:快节奏、一般节奏和慢节奏,心情的选择项包括:开心、忧伤、温暖、振奋。
14.根据权利要求9至12中任一项所述的服务端设备,其特征在于,合成所述音色元素内容和所述伴奏元素内容,得到音频内容,包括:
将所述音色元素内容和所述伴奏元素内容进行作曲合成;
将所述作曲合成结果,进行音频格式转换,得到音频内容。
15.一种客户端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
提供一显示界面,显示多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
接收用户对多个音乐元素的选择项的选择结果;
将所述选择结果传送服务器端,其中,所述服务器用于根据所述选择结果确定音色元素内容和伴奏元素内容,并合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容;
其中,根据所述选择结果确定音色元素内容和伴奏元素内容,包括:
对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;
根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;
根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
16.一种客户端设备,包括处理器以及用于存储处理器可执行指令的存储器,所述处理器执行所述指令时实现:
获取用户选择的多个音乐元素的选择项,其中,所述音乐元素包括以下至少之一;风格、心情、节奏;
根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容;
合成所述音色元素内容和所述伴奏元素内容,得到音频内容;
播放所述音频内容;
其中,根据所述多个音乐元素的选择项,确定音色元素内容和伴奏元素内容,包括:
对所述多个音乐元素的选择项进行格式化处理,得到音乐元素与对应选择项的映射关系;
根据格式化处理结果,查询音色库,得到与所述格式化处理结果匹配的音色元素内容;
根据格式化处理结果,查询伴奏库,得到与所述格式化处理结果匹配的伴奏元素内容。
17.一种计算机可读存储介质,其上存储有计算机指令,所述指令被执行时实现权利要求1至6中任一项所述方法的步骤。
CN201810600059.2A 2018-06-12 2018-06-12 一种音频内容生成方法、服务端设备和客户端设备 Active CN110599985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810600059.2A CN110599985B (zh) 2018-06-12 2018-06-12 一种音频内容生成方法、服务端设备和客户端设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810600059.2A CN110599985B (zh) 2018-06-12 2018-06-12 一种音频内容生成方法、服务端设备和客户端设备

Publications (2)

Publication Number Publication Date
CN110599985A CN110599985A (zh) 2019-12-20
CN110599985B true CN110599985B (zh) 2023-08-18

Family

ID=68849372

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810600059.2A Active CN110599985B (zh) 2018-06-12 2018-06-12 一种音频内容生成方法、服务端设备和客户端设备

Country Status (1)

Country Link
CN (1) CN110599985B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111680185A (zh) * 2020-05-29 2020-09-18 平安科技(深圳)有限公司 乐曲生成方法、装置、电子设备及存储介质
CN112669811B (zh) * 2020-12-23 2024-02-23 腾讯音乐娱乐科技(深圳)有限公司 一种歌曲处理方法、装置、电子设备及可读存储介质
CN112698757A (zh) * 2020-12-25 2021-04-23 北京小米移动软件有限公司 界面交互方法、装置、终端设备及存储介质
CN112954481B (zh) * 2021-02-07 2023-12-12 脸萌有限公司 特效处理方法和装置
CN113032615A (zh) * 2021-03-22 2021-06-25 平安科技(深圳)有限公司 冥想音乐的生成方法、装置、设备及存储介质
CN112951184B (zh) * 2021-03-26 2024-07-09 平安科技(深圳)有限公司 歌曲生成方法、装置、设备及存储介质
CN113178182A (zh) * 2021-04-25 2021-07-27 北京灵动音科技有限公司 信息处理方法、装置、电子设备及存储介质
CN115831080A (zh) * 2022-11-18 2023-03-21 北京字跳网络技术有限公司 确定音频的方法、装置、电子设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006842A (ja) * 2000-06-26 2002-01-11 Hitachi Ltd 携帯端末装置の音データ再生方法
JP2003076367A (ja) * 2001-09-03 2003-03-14 Yamaha Corp 自動作曲装置および自動作曲方法
JP2006154777A (ja) * 2004-10-27 2006-06-15 Victor Networks Co Ltd 音楽生成システム
JP2015060200A (ja) * 2013-09-20 2015-03-30 カシオ計算機株式会社 演奏データファイル調整装置、方法、およびプログラム
CN105161081A (zh) * 2015-08-06 2015-12-16 蔡雨声 一种app哼唱作曲系统及其方法
CN105976807A (zh) * 2016-05-23 2016-09-28 努比亚技术有限公司 音乐播放装置及方法
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法
WO2017155200A1 (ko) * 2016-03-11 2017-09-14 삼성전자 주식회사 음악 정보 제공 방법 및 이를 위한 전자 기기

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006842A (ja) * 2000-06-26 2002-01-11 Hitachi Ltd 携帯端末装置の音データ再生方法
JP2003076367A (ja) * 2001-09-03 2003-03-14 Yamaha Corp 自動作曲装置および自動作曲方法
JP2006154777A (ja) * 2004-10-27 2006-06-15 Victor Networks Co Ltd 音楽生成システム
JP2015060200A (ja) * 2013-09-20 2015-03-30 カシオ計算機株式会社 演奏データファイル調整装置、方法、およびプログラム
CN105161081A (zh) * 2015-08-06 2015-12-16 蔡雨声 一种app哼唱作曲系统及其方法
WO2017155200A1 (ko) * 2016-03-11 2017-09-14 삼성전자 주식회사 음악 정보 제공 방법 및 이를 위한 전자 기기
CN105976807A (zh) * 2016-05-23 2016-09-28 努比亚技术有限公司 音乐播放装置及方法
CN106652984A (zh) * 2016-10-11 2017-05-10 张文铂 一种使用计算机自动创作歌曲的方法

Also Published As

Publication number Publication date
CN110599985A (zh) 2019-12-20

Similar Documents

Publication Publication Date Title
CN110599985B (zh) 一种音频内容生成方法、服务端设备和客户端设备
US10854180B2 (en) Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US11030984B2 (en) Method of scoring digital media objects using musical experience descriptors to indicate what, where and when musical events should appear in pieces of digital music automatically composed and generated by an automated music composition and generation system
US11699420B2 (en) Music composition aid
US7709725B2 (en) Electronic music on hand portable and communication enabled devices
EP2760014A1 (en) Method for making audio file and terminal device
CN108766407B (zh) 音频连接方法及装置
CN114128299A (zh) 多媒体表演的基于模板的摘录和呈现
US11295784B2 (en) User-generated templates for segmented multimedia performance
US20200341718A1 (en) Control system for audio production
CN103531219A (zh) 信息处理设备、信息处理方法和程序
CN110634465A (zh) 配乐的方法、移动终端、数据处理方法和配乐系统
Weitzner et al. massMobile: towards a flexible framework for large-scale participatory collaborations in live performances
WO2024104181A1 (zh) 确定音频的方法、装置、电子设备及存储介质
US20220406280A1 (en) Information processing apparatus, information processing method, and information processing program
CN111666445A (zh) 一种情景歌词的显示方法、装置及音箱设备
US20230086518A1 (en) Systems And Methods For Providing Paint Colors Based On Music
CN110415677B (zh) 音频生成方法和装置及存储介质
WO2020154422A2 (en) Methods of and systems for automated music composition and generation
CN112420002A (zh) 乐曲生成方法、装置、电子设备及计算机可读存储介质
CN111508454B (zh) 乐谱的处理方法、装置、电子设备及存储介质
CN114974184A (zh) 音频制作方法、装置、终端设备及可读存储介质
CN114238684A (zh) 一种资源搜索方法及电子设备
CN113192472A (zh) 信息处理方法、装置、电子设备及存储介质
CN108076232B (zh) 基于移动终端的音乐演奏方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant