CN112489608A - 生成歌曲的方法、装置、电子设备及存储介质 - Google Patents
生成歌曲的方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN112489608A CN112489608A CN201910780663.2A CN201910780663A CN112489608A CN 112489608 A CN112489608 A CN 112489608A CN 201910780663 A CN201910780663 A CN 201910780663A CN 112489608 A CN112489608 A CN 112489608A
- Authority
- CN
- China
- Prior art keywords
- user
- information
- help
- voice
- singing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000000605 extraction Methods 0.000 claims description 13
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000001960 triggered effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 230000033764 rhythmic process Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 3
- 238000005034 decoration Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000004118 muscle contraction Effects 0.000 description 1
- 210000003928 nasal cavity Anatomy 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/40—Rhythm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/27—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
- G10L25/30—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/005—Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/091—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
- G10H2220/096—Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith using a touch screen
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请实施例提供了一种生成歌曲的方法、装置、电子设备及存储介质。该方法包括:接收用户的帮唱请求,帮唱请求中包括帮唱用户的信息;获取用户输入的歌词信息,以及用户选择的配乐信息;基于帮唱用户的信息,获取帮唱用户的声音特征信息;基于歌词信息、声音特征信息以及配乐信息,生成相应的歌曲。在本申请实施例中,用户录制歌曲时可以选择帮唱用户共同完成歌曲的录制,增加了录制歌曲的方式,可以更好的满足用户的实际需求,提升用户的体验。
Description
技术领域
本申请涉及互联网技术领域,具体而言,本发明涉及一种生成歌曲的方法、装置、电子设备及存储介质。
背景技术
随着科学技术的高速发展,各种与音乐有关的应用程序层出不穷,用户可通过音乐产品进行录制歌曲,并分享录制歌曲。目前,用户在进行录制歌曲时,大都是用户选择相应的音乐伴奏并跟随音乐伴奏及字幕进行演唱录制,显然,目前进行录制歌曲的方式相对单一,对用户缺少有力的吸引力,无法满足用户的需求。
发明内容
本申请的目的旨在至少能解决上述的技术缺陷之一,特别是录制歌曲的方式相对单一的技术缺陷。
第一方面,本申请实施例提供一种生成歌曲的方法,包括:
接收用户的帮唱请求,帮唱请求中包括帮唱用户的信息;
获取用户输入的歌词信息,以及用户选择的配乐信息;
基于帮唱用户的信息,获取帮唱用户的声音特征信息;
基于歌词信息、声音特征信息以及配乐信息,生成相应的歌曲。
第一方面可选的实施例中,获取用户输入的歌词信息,包括:
在接收到用户的歌词录制请求后,获取用户输入的第一语音信息;对第一语音信息进行识别,将识别得到的文本信息作为歌词信息;
或者,
在接收到用户的歌词录制请求后,获取用户输入的文本信息,将用户输入的文本信息作为歌词信息。
第一方面可选的实施例中,通过下列方式获取帮唱用户的声音特征信息:
基于帮唱用户的信息,以及预配置的声音特征库,获取帮唱用户的声音特征信息;或者,
获取帮唱用户输入的第二语音信息,对输入的第二语音信息进行声音特征提取,得到帮唱用户的声音特征信息。
第一方面可选的实施例中,帮唱用户输入的第二语音信息为帮唱用户随机输入的语音信息,或,在将歌词信息提供至帮唱用户后,帮唱用户基于歌词信息输入的第二语音信息。
第一方面可选的实施例中,配乐信息包括伴奏信息和曲调信息。
第一方面可选的实施例中,声音特征信息包括音色、音调和响色中的至少一种。
第二方面,本申请实施例提供一种生成歌曲的装置,包括:
帮唱请求接收装置,用于接收用户的帮唱请求,帮唱请求中包括帮唱用户的信息;
信息获取装置,用于获取用户输入的歌词信息,以及用户选择的配乐信息;以及基于帮唱用户的信息,获取帮唱用户的声音特征信息;
歌曲合成装置,用于基于歌词信息、声音特征信息以及配乐信息,生成相应的歌曲。
第二方面可选的实施例中,信息获取装置在获取用户输入的歌词信息时,具体用于:
在接收到用户的歌词录制请求后,获取用户输入的第一语音信息;对第一语音信息进行识别,将识别得到的文本信息作为歌词信息;
或者,
在接收到用户的歌词录制请求后,获取用户输入的文本信息,将用户输入的文本信息作为歌词信息。
第二方面可选的实施例中,信息获取装置通过下列方式获取帮唱用户的声音特征信息:
基于帮唱用户的信息,以及预配置的声音特征库,获取帮唱用户的声音特征信息;或者,
获取帮唱用户输入的第二语音信息,对输入的第二语音信息进行声音特征提取,得到帮唱用户的声音特征信息。
第二方面可选的实施例中,帮唱用户输入的第二语音信息为帮唱用户随机输入的语音信息,或,在将歌词信息提供至帮唱用户后,帮唱用户基于歌词信息输入的第二语音信息。
第二方面可选的实施例中,配乐信息包括伴奏信息和曲调信息。
第二方面可选的实施例中,声音特征信息包括音色、音调和响色中的至少一种。
第三方面,本申请实施例提供一种电子设备,包括:
处理器;以及
存储器,配置用于存储机器可读指令,指令在由处理器执行时,使得处理器执行第一方面任一项的方法。
第四方面,本申请实施例提供一种计算机可读存储介质,存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现如第一方面任一项的方法。
本申请实施例提供的技术方案带来的有益效果是:
在本申请实施例中,用户在录制歌曲时,可以发送包括帮唱用户信息的帮唱请求,进而可以获取到帮唱用户的声音特征信息,并基于歌词信息、帮唱用户的声音特征信息以及配乐信息,生成相应的歌曲。在本申请实施例中,用户录制歌曲时可以选择帮唱用户共同完成歌曲的录制,增加了录制歌曲的方式,可以更好的满足用户的实际需求,提升用户的体验。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对本申请实施例描述中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种生成歌曲的方法的流程示意图;
图2为本申请实施例提供的一种生成歌曲的装置的结构示意图;
图3为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本申请,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“”和“该”也可包括复数形式。应该进一步理解的是,本申请的说明书中使用的措辞“包括”是指存在特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面以具体地实施例对本申请的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本申请的实施例进行描述。
本申请实施例提供了一种生成歌曲的方法,如图1所示,该方法包括:
步骤S110,接收用户的帮唱请求,帮唱请求中包括帮唱用户的信息。
其中,帮唱请求表示用户想要启动帮唱功能,而用户用于触发帮唱请求的具体形式可以根据需要配置,本申请实施例不做限定。例如,在实际应用中,可通过在客户端应用程序的用户界面设置相关触发标识来触发该请求,其中,触发标识的具体形式可以根据实际需要配置,比如,可以是客户端用户界面上的指定触发按钮或输入框,还可以是用户的语音指令,具体的,例如可以是在客户端用户界面上显示的“帮唱”的虚拟按钮,用户点击该按钮的操作即为用户触发了帮唱请求。
在实际应用中,帮唱请求中包括帮唱用户的信息,基于该信息可以获知帮唱用户具体为哪一用户,而帮唱用户的信息的具体表现形式可以根据实际需要预先配置,本申请实施例不做限定,比如可以是用户在客户端应用程序中的账号信息。
其中,用户发送帮唱请求之前,可以选择具体由哪一个用户为自己帮唱,如在接收到用户的帮唱触发请求后,可以向用户展示可选择的帮唱用户的选择列表,该列表中可以展示帮唱用户的标识,如可以显示各帮唱用户的名称,用户可以基于选择列表选择哪一个用户为自己帮唱。而选择列表中帮唱用户的来源本申请实施例不做限定,如可以是用户在客户端应用程序中建立的好友列表,也可以是与客户端应用程序关联的第三方应用程序中的好友列表等。
步骤120,获取用户输入的歌词信息,以及用户选择的配乐信息。
其中,用户选择配乐信息的具体实现方式,本申请实施例不做限定。作为一种可选的实施方式,在接收到用户触发的配乐信息选择请求后,向用户展示可选择的配乐的信息列表,该信息列表中可以展示有各种配乐信息,如可以显示各种配乐的名称,用户可以基于该信息列表选择具体想要基于哪种配乐录制歌曲。
在本申请实施例中,配乐信息包括伴奏信息和曲调信息。
其中,伴奏信息指的是用于衬托歌唱的器乐演奏的音频信息,即歌曲中的器乐演奏的音频信息。曲调信息指的是用于说明歌曲中歌词的调式、节奏、节拍、力度、音色等要素的信息。
步骤130,基于帮唱用户的信息,获取帮唱用户的声音特征信息。
其中,声音是由喉部的肌肉收缩引起声带的震动,再经过口腔、鼻腔的共鸣后发出的,声音特征信息则指的是用于说明发声特点的信息,在本申请实施例中,声音特征信息可以包括音色、音调和响色中的至少一种。
其中,音色是指不同的声音频率,表现在波形方面总与众不同的特性;音调则指的是声音频率的高低;响色指的是声音的大小,并由“振幅”决定,振幅越大响度越大。
在实际应用中,由于帮唱请求中可以包括帮唱用户的信息,且该信息用于标识帮唱用户,因此,基于该信息可以获知用户选择的帮唱用户具体为哪一用户,进一步的,在获知用户选择的帮唱用户后,可以获取帮唱用户的声音特征信息。
需要说明是,本申请实施例中步骤120和步骤130不存在执行顺序的先后限制,可以执行步骤120后再执行步骤130,也可以先执行步骤130再执行步骤120。
步骤140,基于歌词信息、声音特征信息以及歌曲信息,生成相应的歌曲。
在实际应用中,基于帮唱用户的声音特征信息将歌词信息与配乐信息进行结合时,生成相应的歌曲的具体实现方式可以根据需要预先配置,本申请实施例不做限定。
在一示例中,可以基于帮唱用户的声音特征信息将歌词信息转换为语音,然后基于用户选择的曲调信息中的调式、节奏、节拍、力度、音色等要素的信息,对基于歌词信息转换得到的语音中的调式、节奏、节拍、力度、音色等进行调整,得到调整后的语音,然后将调整后的语音与伴奏信息结合,进而生成相应的歌曲。
在本申请实施例中,由于在合成时结合了帮唱用户的声音特征信息,进而得到的歌曲可以更加贴近帮唱用户的声音特征,进而到达了帮唱的目的。
需要说明的是,本申请实施例中所示方法的执行主体不做限定,可以是由终端设备执行,也可以是由服务器执行。若本申请实施例中所示的方法是由服务器执行,在终端设备接收到用户发的帮唱请求,或者,获取到用户输入的歌词信息和用户选择的配乐信息后,可以将帮唱请求,以及用户输入的歌词信息和用户选择的配乐信息发送至服务器,以使服务器获知用户当前想要开启帮唱功能,以及获知用户输入的歌词信息,具体选择的配乐信息。
在本申请实施例中,用户在录制歌曲时,可以发送包括帮唱用户信息的帮唱请求,进而可以获取到帮唱用户的声音特征信息,并基于歌词信息、帮唱用户的声音特征信息以及配乐信息,生成相应的歌曲。在本申请实施例中,用户录制歌曲时可以选择帮唱用户共同完成歌曲的录制,增加了录制歌曲的方式,可以更好的满足用户的实际需求,提升用户的体验。
在本申请实施例中,获取用户输入的歌词信息,包括:
在接收到用户的歌词录制请求后,获取用户输入的第一语音信息;对第一语音信息进行识别,将识别得到的文本信息作为歌词信息;
或者,
在接收到用户的歌词录制请求后,获取用户输入的文本信息,将用户输入的文本信息作为歌词信息。
其中,歌词录制请求表示用户想要输入待生成歌曲的歌词信息,而用户用于触发歌词录制请求的具体形式可以根据需要配置,比如,可以是客户端应用程序的用户界面上的指定触发按钮或输入框,还可以是用户的语音指令。具体的,例如可以是在客户端应用程序的用户界面上显示的“歌词”的虚拟按钮,用户点击该按钮的操作即为用户触发了歌词录制请求。
在实际应用中,获取用户输入的歌词信息的具体实现方式,本申请实施例不做限定。作为一种可选的实施方式,在接收到用户触发的歌词录制请求后,可以获取用户输入的第一语音信息,并对第一语音信息进行识别,将识别得到的文本信息作为歌词信息。比如,对用户输入的第一语音信息进行语音识别,得到的信息为“今天天气真好”则识别得到的“今天天气真好”即为用户输入的歌词信息。
作为另一种可选的实施方式,在接收到用户触发的歌词录制请求后,用户可以采用文字输入的方式输入文本信息,并将用户输入的文本信息作为歌词信息。例如,用户输入的文本信息为“出去旅游”,此时文本信息“出去旅游”即为用户输入的歌词信息。
当然,在实际应用中,在接收到用户触发的歌词录制请求后,还可以向用户提供输入歌词信息方式的选择列表,用户基于显示的选择列表选择自己喜欢的方式输入歌词信息。
在本申请实施例中,通过下列方式获取帮唱用户的声音特征信息:
基于帮唱用户的信息,以及预配置的声音特征库,获取帮唱用户的声音特征信息;或者,
获取帮唱用户输入的语音信息,对输入的语音信息进行声音特征提取,得到帮唱用户的声音特征信息。
在实际应用中,获取帮唱用户的声音特征信息由于涉及到帮唱用户的个人隐私,因此在获取帮唱用户的声音特征信息之前,可先获得帮唱用户的同意。比如,可以向帮唱用户的客户端应用程序发送提示信息,用于告知帮唱用户哪一个用户希望他/她进行帮唱,若帮唱用户同意帮唱则可以返回用于表征同意的信息,此时可以获取帮唱用户的声音特征信息,若帮唱用户返回用于表征不同意帮唱的信息,则可以向请求帮唱的用户的客户端应用程序发送取消帮唱提示信息,以告知请求帮唱的用户当前无法进行帮唱功能。
其中,获取帮唱用户的声音特征信息的具体实现方式,可以存在多种实现方式,下面针对不同的方式进行详细的描述。
方式1:基于帮唱用户的信息,以及预配置的声音特征库,获取帮唱用户的声音特征信息。
在实际应用中,若预先存储了声音特征库,可以直接基于帮唱用户的信息从声音特征库获取帮唱用户的声音特征信息。其中,声音特征库是基于神经网络模型对不同用户之前输入的语音进行训练得到声音特征信息后存储的。
其中,若本申请实施例中的执行主体为终端设备,帮唱用户的声音特征库可以存储在服务器,在获取帮唱用户的声音特征信息时,可将帮唱用户的信息发送至服务器,服务器基于帮唱用户的信息,基于声音特征库确定帮唱用户的声音特征信息后,将帮唱用户的声音特征信息返回至终端设备。
方式2:获取帮唱用户输入的语音信息,对输入的语音信息进行声音特征提取,得到帮唱用户的声音特征信息。
在实际应用中,获取帮唱用户的声音特征信息时,也可以获取帮唱用户输入的语音信息,基于用于提取声音特征的神经网络模型对帮唱用户输入的语音信息进行声音特征提取,进而得到帮唱用户的声音特征信息。
其中,在获取帮唱用户的声音特征信息时,可以向帮唱用户的客户端应用程序发送输入语音信息的提示信息,以使帮唱用户知晓当前需要输入语音信息。
在实际应用中,在获取帮唱用户的声音特征信息时可以仅采用上述两种可选实施方式中的任意一种,也可以将两种可选实施方式进行结合。
比如,在获取帮唱用户的声音特征信息时,可以先确定声音特征库中是否包含了帮唱用户的声音特征信息,若包含,此时可以直接基于帮唱用户的信息从声音特征库中确定帮唱用户的声音特征信息,若不包含,则获取帮唱用户输入的语音信息,并对帮唱用户输入的语音信息进行声音特征提取,进而得到帮唱用户的声音特征信息。
需要说明的是,若本申请实施例中的执行主体为终端设备,在采用方式2中获取帮唱用户的声音特征信息时,服务器基于帮唱用户的客户端应用程序获取到帮唱用户的声音特征信息,并对帮唱用户输入的语音信息进行声音特征提取,获取到帮唱用户的声音特征信息后,将帮唱用户的声音特征信息返回至请求帮唱的用户的客户端应用程序。
在本申请实施例中,帮唱用户输入的语音信息为帮唱用户随机输入的语音信息,或,在将歌词信息提供至帮唱用户后,帮唱用户基于歌词信息输入的语音信息。
在实际应用中,帮唱用户输入的语音信息可以是用户随机输入的语音信息,也可以先将歌词信息提供至帮唱用户,然后帮唱用户按照歌词信息输入的语音信息。
其中,若帮唱用户输入的语音信息为帮唱用户基于歌词信息输入的语音信息,且生成歌曲的实现方式为将歌词信息转换为语音信息的方式(即前文示例中生成相应歌曲的方式),此时可以不执行基于帮唱用户的声音特征信息将歌词信息转换为语音信息的步骤,而是直接基于用户选择的曲调信息中的调式、节奏、节拍、力度、音色等要素的信息,对帮唱用户输入的语音信息中的调式、节奏、节拍、力度、音色等进行调整,得到调整后的语音信息,然后将调整后的语音信息与伴奏信息结合,进而生成相应的歌曲。
为了更好的说明本申请实施例所提供的方案,下面结合具体示例对该方案进行说明。
实施例一:以执行主体为服务器为例对该方案进行说明。
通过用户的客户端应用程序接收到用户触发的帮唱请求和用户选择的配乐信息后,将该帮唱请求和用户选择的配乐信息发送至对应的服务器,以及接收到用户输入第一语音信息或用户输入的文本信息后,将用户输入第一语音信息或用户输入的文本信息转发至服务器,服务器将用户输入的文本信息作为歌词信息或对接收到的第一语音信息进行识别,将并识别得到的文本信息作为歌词信息。
进一步的,服务器可以获取帮唱用户的声音特征信息,其中,服务器获取帮唱用户的声音特征信息时,可以基于帮唱请求中帮唱用户的信息,直接从预配置的声音特征库中获取帮唱用户的声音特征信息;也可以通过帮唱用户的客户端应用程序获取帮唱用户输入的第二语音信息,并对帮唱输入的第二语音信息进行声音特征提取,进而得到帮唱用户的声音特征信息。当然,在实际应用中,服务器还可以将歌词信息提供至帮唱用户的客户端应用程序,帮唱用户基于提供的歌词信息输入的第二语音信息,然后服务器对帮唱用户基于歌词信息输入的第二语音信息进行声音特征提取,进而得到帮唱用户的声音特征信息。
进一步的,服务器可以基于用户输入的歌词信息、帮唱用户的声音特征信息以及用户选择的配乐信息,生成相应的歌曲,并将生成歌曲返回至请求帮唱的用户的客户端应用程序。
实施例二:以执行主体为客户端应用程序为例对该方案进行说明。
用户触发的帮唱请求和用户选择的配乐信息,以及接收到用户输入第一语音信息或用户输入的文本信息后,将用户输入的文本信息作为歌词信息或对接收到的第一语音信息进行识别,将并识别得到的文本信息作为歌词信息。
进一步的,可以获取帮唱用户的声音特征信息,其中,获取帮唱用户的声音特征信息时,可以基于帮唱请求中帮唱用户的信息,直接从预配置的声音特征库中获取帮唱用户的声音特征信息;也可以将帮唱用户的信息发送至服务器,服务器通过帮唱用户的客户端应用程序获取帮唱用户输入的第二语音信息,并对帮唱输入的第二语音信息进行声音特征提取,得到帮唱用户的声音特征信息后,将帮唱用户的声音特征信息返回至请求帮唱用户的客户端。当然,在实际应用中,服务器还可以将歌词信息与帮唱用户的信息一同发送至服务器,服务器将歌词信息提供至帮唱用户的客户端应用程序,帮唱用户基于提供的歌词信息输入的第二语音信息,然后服务器对帮唱用户基于歌词信息输入的第二语音信息进行声音特征提取,得到帮唱用户的声音特征信息后,将帮唱用户的声音特征信息返回至请求帮唱用户的客户端应用程序。
进一步的,请求帮唱用户的客户端应用程序可以基于用户输入的歌词信息、帮唱用户的声音特征信息以及用户选择的配乐信息,生成相应的歌曲。
本申请实施例提供了一种生成歌曲的装置,如图2所示,该生成歌曲的装置60可以包括:帮唱请求接收装置601、信息获取装置602以及歌曲合成装置603,其中,
帮唱请求接收装置,用于接收用户的帮唱请求,帮唱请求中包括帮唱用户的信息;
信息获取装置,用于获取用户输入的歌词信息,以及用户选择的配乐信息;以及基于帮唱用户的信息,获取帮唱用户的声音特征信息;
歌曲合成装置,用于基于歌词信息、声音特征信息以及配乐信息,生成相应的歌曲。
本申请可选的实施例中,信息获取装置在获取用户输入的歌词信息时,具体用于:
在接收到用户的歌词录制请求后,获取用户输入的第一语音信息;对第一语音信息进行识别,将识别得到的文本信息作为歌词信息;
或者,
在接收到用户的歌词录制请求后,获取用户输入的文本信息,将用户输入的文本信息作为歌词信息。
本申请可选的实施例中,信息获取装置通过下列方式获取帮唱用户的声音特征信息:
基于帮唱用户的信息,以及预配置的声音特征库,获取帮唱用户的声音特征信息;或者,
获取帮唱用户输入的第二语音信息,对输入的第二语音信息进行声音特征提取,得到帮唱用户的声音特征信息。
本申请可选的实施例中,帮唱用户输入的第二语音信息为帮唱用户随机输入的语音信息,或,在将歌词信息提供至帮唱用户后,帮唱用户基于歌词信息输入的第二语音信息。
本申请可选的实施例中,配乐信息包括伴奏信息和曲调信息。
本申请可选的实施例中,声音特征信息包括音色、音调和响色中的至少一种。
本申请实施例提供了一种电子设备,如图3所示,图3所示的电子设备2000包括:处理器2001和存储器2003。其中,处理器2001和存储器2003相连,如通过总线2002相连。可选地,电子设备2000还可以包括收发器2004。需要说明的是,实际应用中收发器2004不限于一个,该电子设备2000的结构并不构成对本申请实施例的限定。
其中,处理器2001应用于本申请实施例中,用于实现图2所示的模块的功能。
处理器2001可以是CPU,通用处理器,DSP,ASIC,FPGA或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本申请公开内容所描述的各种示例性的逻辑方框,模块和电路。处理器2001也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等。
总线2002可包括一通路,在上述组件之间传送信息。总线2002可以是PCI总线或EISA总线等。总线2002可以分为地址总线、数据总线、控制总线等。为便于表示,图3中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
存储器2003可以是ROM或可存储静态信息和指令的其他类型的静态存储设备,RAM或者可存储信息和指令的其他类型的动态存储设备,也可以是EEPROM、CD-ROM或其他光盘存储、光碟存储(包括压缩光碟、激光碟、光碟、数字通用光碟、蓝光光碟等)、磁盘存储介质或者其他磁存储设备、或者能够用于携带或存储具有指令或数据结构形式的期望的程序代码并能够由计算机存取的任何其他介质,但不限于此。
存储器2003用于存储执行本申请方案的应用程序代码,并由处理器2001来控制执行。处理器2001用于执行存储器2003中存储的应用程序代码,以实现图2所示实施例提供的生成歌曲装置的动作。
本申请实施例提供了一种电子设备,本申请实施例中的电子设备包括:处理器;以及存储器,存储器配置用于存储机器可读指令,指令在由处理器执行时,使得处理器执行生成歌曲方法中的任一项方法。与现有技术相比可实现:在本申请实施例中,用户在录制歌曲时,可以发送包括帮唱用户信息的帮唱请求,进而可以获取到帮唱用户的声音特征信息,并基于歌词信息、帮唱用户的声音特征信息以及配乐信息,生成相应的歌曲。在本申请实施例中,用户录制歌曲时可以选择帮唱用户共同完成歌曲的录制,增加了录制歌曲的方式,可以更好的满足用户的实际需求,提升用户的体验。
本申请实施例提供了一种计算机可读存储介质,存储介质存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现生成歌曲方法中的任一项。与现有技术相比,在本申请实施例中,用户在录制歌曲时,可以发送包括帮唱用户信息的帮唱请求,进而可以获取到帮唱用户的声音特征信息,并基于歌词信息、帮唱用户的声音特征信息以及配乐信息,生成相应的歌曲。在本申请实施例中,用户录制歌曲时可以选择帮唱用户共同完成歌曲的录制,增加了录制歌曲的方式,可以更好的满足用户的实际需求,提升用户的体验。
本申请中实施例中的一种计算机可读存储介质所涉及的名词及实现原理具体可以参照本申请实施例中的一种生成歌曲的方法,在此不再赘述。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种生成歌曲的方法,其特征在于,包括:
接收用户的帮唱请求,所述帮唱请求中包括帮唱用户的信息;
获取所述用户输入的歌词信息,以及所述用户选择的配乐信息;
基于所述帮唱用户的信息,获取帮唱用户的声音特征信息;
基于所述歌词信息、所述声音特征信息以及所述配乐信息,生成相应的歌曲。
2.根据权利要求1所述的方法,其特征在于,所述获取所述用户输入的歌词信息,包括:
在接收到所述用户的歌词录制请求后,获取所述用户输入的第一语音信息;对所述第一语音信息进行识别,将识别得到的文本信息作为所述歌词信息;
或者,
在接收到所述用户的歌词录制请求后,获取所述用户输入的文本信息,将所述用户输入的文本信息作为所述歌词信息。
3.根据权利要求1所述的方法,其特征在于,通过下列方式获取所述帮唱用户的声音特征信息:
基于所述帮唱用户的信息,以及预配置的声音特征库,获取所述帮唱用户的声音特征信息;或者,
获取所述帮唱用户输入的第二语音信息,对所述输入的第二语音信息进行声音特征提取,得到所述帮唱用户的声音特征信息。
4.根据权利要求3所述的方法,其特征在于,所述帮唱用户输入的第二语音信息为所述帮唱用户随机输入的语音信息,或,在将所述歌词信息提供至所述帮唱用户后,所述帮唱用户基于所述歌词信息输入的第二语音信息。
5.根据权利要求1所述的方法,其特征在于,所述配乐信息包括伴奏信息和曲调信息。
6.根据权利要求1或3中任一项所述的方法,其特征在于,所述声音特征信息包括音色、音调和响色中的至少一种。
7.一种生成歌曲的装置,其特征在于,包括:
帮唱请求接收装置,用于接收用户的帮唱请求,所述帮唱请求中包括帮唱用户的信息;
信息获取装置,用于获取所述用户输入的歌词信息,以及所述用户选择的配乐信息;以及基于所述帮唱用户的信息,获取帮唱用户的声音特征信息;
歌曲合成装置,用于基于所述歌词信息、所述声音特征信息以及所述配乐信息,生成相应的歌曲。
8.根据权利要求7所述的装置,其特征在于,所述信息获取装置在获取所述用户输入的歌词信息时,具体用于:
在接收到所述用户的歌词录制请求后,获取所述用户输入的第一语音信息;对所述第一语音信息进行识别,将识别得到的文本信息作为所述歌词信息;
或者,
在接收到所述用户的歌词录制请求后,获取所述用户输入的文本信息,将所述用户输入的文本信息作为所述歌词信息。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,配置用于存储机器可读指令,所述指令在由所述处理器执行时,使得所述处理器执行权利要求1-6任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,
所述存储介质存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至6任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910780663.2A CN112489608A (zh) | 2019-08-22 | 2019-08-22 | 生成歌曲的方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910780663.2A CN112489608A (zh) | 2019-08-22 | 2019-08-22 | 生成歌曲的方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112489608A true CN112489608A (zh) | 2021-03-12 |
Family
ID=74920286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910780663.2A Pending CN112489608A (zh) | 2019-08-22 | 2019-08-22 | 生成歌曲的方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112489608A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0934475A (ja) * | 1995-07-14 | 1997-02-07 | Tookado:Kk | 個人用カラオケ情報記録媒体及び個人用カラオケ情報 処理システム |
JP2002132281A (ja) * | 2000-10-26 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | 歌声メッセージ生成・配信方法及びその装置 |
KR20040103829A (ko) * | 2004-11-01 | 2004-12-09 | 주식회사 로토토 | 인터넷을 이용한 반주 서비스 제공 방법 및 반주 서비스제공 시스템 |
CN101399036A (zh) * | 2007-09-30 | 2009-04-01 | 三星电子株式会社 | 将语音转换为说唱音乐的设备和方法 |
JP2011180428A (ja) * | 2010-03-02 | 2011-09-15 | Brother Industries Ltd | 歌詞音節数提示装置及びプログラム |
EP2930714A1 (en) * | 2012-12-04 | 2015-10-14 | National Institute of Advanced Industrial Science and Technology | Singing voice synthesizing system and singing voice synthesizing method |
CN105740394A (zh) * | 2016-01-27 | 2016-07-06 | 广州酷狗计算机科技有限公司 | 歌曲生成方法、终端及服务器 |
CN106157979A (zh) * | 2016-06-24 | 2016-11-23 | 广州酷狗计算机科技有限公司 | 一种获取人声音高数据的方法和装置 |
CN107509106A (zh) * | 2017-08-16 | 2017-12-22 | 腾讯音乐娱乐(深圳)有限公司 | 播放音频的方法、装置和系统 |
-
2019
- 2019-08-22 CN CN201910780663.2A patent/CN112489608A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0934475A (ja) * | 1995-07-14 | 1997-02-07 | Tookado:Kk | 個人用カラオケ情報記録媒体及び個人用カラオケ情報 処理システム |
JP2002132281A (ja) * | 2000-10-26 | 2002-05-09 | Nippon Telegr & Teleph Corp <Ntt> | 歌声メッセージ生成・配信方法及びその装置 |
KR20040103829A (ko) * | 2004-11-01 | 2004-12-09 | 주식회사 로토토 | 인터넷을 이용한 반주 서비스 제공 방법 및 반주 서비스제공 시스템 |
CN101399036A (zh) * | 2007-09-30 | 2009-04-01 | 三星电子株式会社 | 将语音转换为说唱音乐的设备和方法 |
JP2011180428A (ja) * | 2010-03-02 | 2011-09-15 | Brother Industries Ltd | 歌詞音節数提示装置及びプログラム |
EP2930714A1 (en) * | 2012-12-04 | 2015-10-14 | National Institute of Advanced Industrial Science and Technology | Singing voice synthesizing system and singing voice synthesizing method |
CN105740394A (zh) * | 2016-01-27 | 2016-07-06 | 广州酷狗计算机科技有限公司 | 歌曲生成方法、终端及服务器 |
CN106157979A (zh) * | 2016-06-24 | 2016-11-23 | 广州酷狗计算机科技有限公司 | 一种获取人声音高数据的方法和装置 |
CN107509106A (zh) * | 2017-08-16 | 2017-12-22 | 腾讯音乐娱乐(深圳)有限公司 | 播放音频的方法、装置和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI774967B (zh) | 音頻合成方法、裝置、儲存媒體和計算機設備 | |
CN108766407B (zh) | 音频连接方法及装置 | |
CN106898339B (zh) | 一种歌曲的合唱方法及终端 | |
JP2017058597A (ja) | 自動伴奏データ生成装置及びプログラム | |
GB2571340A (en) | Method of combining audio signals | |
JP6452229B2 (ja) | カラオケ効果音設定システム | |
CN103729141A (zh) | 实现输入法键盘音乐发声的方法及系统 | |
JP5598516B2 (ja) | カラオケ用音声合成システム,及びパラメータ抽出装置 | |
JP2002132281A (ja) | 歌声メッセージ生成・配信方法及びその装置 | |
CN112037739B (zh) | 一种数据处理方法、装置、电子设备 | |
JP6288197B2 (ja) | 評価装置及びプログラム | |
CN112489608A (zh) | 生成歌曲的方法、装置、电子设备及存储介质 | |
JP6944357B2 (ja) | 通信カラオケシステム | |
JP6406273B2 (ja) | カラオケ装置,及びプログラム | |
CN112489607A (zh) | 录制歌曲的方法、装置、电子设备及可读存储介质 | |
JP6252420B2 (ja) | 音声合成装置、及び音声合成システム | |
JP2023013684A (ja) | 歌唱声質変換プログラム及び歌唱声質変換装置 | |
JP6954780B2 (ja) | カラオケ装置 | |
CN112420008A (zh) | 录制歌曲的方法、装置、电子设备及存储介质 | |
JP2020134901A (ja) | カラオケシステム | |
JP6380305B2 (ja) | データ生成装置、カラオケシステム、及びプログラム | |
JP5439994B2 (ja) | データ集配システム,通信カラオケシステム | |
JP6365483B2 (ja) | カラオケ装置,カラオケシステム,及びプログラム | |
CN112420003B (zh) | 伴奏的生成方法、装置、电子设备及计算机可读存储介质 | |
JP6144593B2 (ja) | 歌唱採点システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |