CN111428079B - 文本内容处理方法、装置、计算机设备及存储介质 - Google Patents

文本内容处理方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111428079B
CN111428079B CN202010209314.8A CN202010209314A CN111428079B CN 111428079 B CN111428079 B CN 111428079B CN 202010209314 A CN202010209314 A CN 202010209314A CN 111428079 B CN111428079 B CN 111428079B
Authority
CN
China
Prior art keywords
text content
target
target text
music
audio resource
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010209314.8A
Other languages
English (en)
Other versions
CN111428079A (zh
Inventor
罗忠岚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Kugou Computer Technology Co Ltd
Original Assignee
Guangzhou Kugou Computer Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Kugou Computer Technology Co Ltd filed Critical Guangzhou Kugou Computer Technology Co Ltd
Priority to CN202010209314.8A priority Critical patent/CN111428079B/zh
Publication of CN111428079A publication Critical patent/CN111428079A/zh
Application granted granted Critical
Publication of CN111428079B publication Critical patent/CN111428079B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/685Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using automatically derived transcript of audio data, e.g. lyrics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/65Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本申请公开了一种文本内容处理方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:接收目标文本内容的目标音频资源获取请求,该目标文本内容包括至少一个角色的文本内容;基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源;保存该目标文本内容的目标音频资源。该目标音频资源不仅可以保留目标文本内容,还可以将目标文本内容中不同角色对应的文本内容用不同的音色类型来表示,使得目标文本内容更加真实,由于该目标文本内容的处理过程不需要用户的参与,因此还可以节省文本内容处理的时间,提高处理的效率。

Description

文本内容处理方法、装置、计算机设备及存储介质
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种文本内容处理方法、装置、计算机设备及存储介质。
背景技术
随着计算机技术的迅猛发展,人们的日常生活节奏逐渐加快,越来越多的人们开始记录生活中的点滴。例如,可以使用文字的方式进行记录,也可以使用视频的方式进行记录。
相关技术中,计算机设备上安装和运行有支持文本输入的应用程序,用户可以在该应用程序中输入文本内容。文字记录的方法只是将文本内容记录下来,并不能准确记录文本内容发生时的情景。用户还可以使用摄像装置进行视频记录,视频记录的方法虽然可以准确记录文本内容发生时的情景,但需要用户花费大量的时间和精力进行视频拍摄,且拍摄的视频中会出现不必要的文字内容,容易造成资源的浪费和时间成本的浪费。
因此,亟需一种文本内容处理方法,在保留文本内容发生时的情景的基础上,还可以节省时间,提高处理效率。
发明内容
本申请实施例提供了一种文本内容处理方法、装置、计算机设备及存储介质,可用于解决相关技术中的问题。该技术方案如下:
一方面,本申请实施例提供了一种文本内容处理方法,该方法包括:
接收目标文本内容的目标音频资源获取请求,该目标文本内容包括至少一个角色的文本内容;
基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源,该目标音频资源中采用不同音色类型表示不同角色对应的文本内容;
保存该目标文本内容的目标音频资源。
在一种可能的实现方式中,该基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源,包括:
响应于该目标音频资源获取请求,向目标服务器发送目标音频资源获取指令,该目标音频资源获取指令携带该目标文本内容的标识;
接收该目标服务器返回的目标音频资源,该目标音频资源基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容所生成,该目标音频资源为该目标文本内容的标识对应的音频资源。
在一种可能的实现方式中,该基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源,包括:
确定该目标文本内容对应的音素序列;
识别该目标文本内容中不同角色对应的文本内容,确定该目标文本内容中不同角色对应的文本内容对应的音素序列;
基于该目标文本内容中不同角色对应的音色类型,对该目标文本内容中不同角色对应的文本内容对应的音素序列进行合成,得到不同角色对应的音频资源;
根据该不同角色对应的音频资源,得到该目标文本内容对应的目标音频资源。
在一种可能的实现方式中,该识别该目标文本内容中不同角色对应的文本内容,包括:
识别该目标文本内容中不同角色对应的角色名称和关键字,该关键字用于标识该角色名称对应的文本内容的起始位置;
将该角色名称和关键字对应的文本内容确定为该角色名称对应的文本内容。
在一种可能的实现方式中,该基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源之前,该方法还包括:
获取音频配置文件,该音频配置文件包括多种音色模型,每种音色模型中包括多种音色类型;
根据该音频配置文件,确定该目标文本内容中各个角色对应的音色类型。
在一种可能的实现方式中,该保存该目标文本内容的目标音频资源,包括:
将音乐库中符合目标条件的音乐确定为背景音乐;
对该目标音频资源和该背景音乐进行合成,得到合成后的目标音频资源;
保存该合成后的目标音频资源。
在一种可能的实现方式中,该将音乐库中符合目标条件的音乐确定为背景音乐,包括:
计算该音乐库中的音乐与该目标文本内容之间的匹配度,将匹配度满足第一目标条件的音乐确定为背景音乐;
或者,获取该音乐库中的音乐的排行指数,将该排行指数符合第二目标条件的音乐确定为背景音乐。
在一种可能的实现方式中,该方法还包括:
接收该目标音频资源的播放请求,该播放请求携带该目标文本内容的标识;
基于该目标文本内容的标识,获取该目标文本内容和该目标文本内容的目标音频资源;
显示该目标文本内容;
播放该目标文本内容的目标音频资源。
另一方面,本申请实施例提供了一种文本内容处理装置,该装置包括:
接收模块,用于接收目标文本内容的目标音频资源获取请求,该目标文本内容包括至少一个角色的文本内容;
获取模块,用于基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源,该目标音频资源中采用不同音色类型表示不同角色对应的文本内容;
保存模块,用于保存该目标文本内容的目标音频资源。
在一种可能的实现方式中,该获取模块,用于响应于该目标音频资源获取请求,向目标服务器发送目标音频资源获取指令,该目标音频资源获取指令携带该目标文本内容的标识;
接收该目标服务器返回的目标音频资源,该目标音频资源基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容所生成,该目标音频资源为该目标文本内容的标识对应的音频资源。
在一种可能的实现方式中,该获取模块,用于确定该目标文本内容对应的音素序列;
识别该目标文本内容中不同角色对应的文本内容,确定该目标文本内容中不同角色对应的文本内容对应的音素序列;
基于该目标文本内容中不同角色对应的音色类型,对该目标文本内容中不同角色对应的文本内容对应的音素序列进行合成,得到不同角色对应的音频资源;
根据该不同角色对应的音频资源,得到该目标文本内容对应的目标音频资源。
在一种可能的实现方式中,该获取模块,用于识别该目标文本内容中不同角色对应的角色名称和关键字,该关键字用于标识该角色名称对应的文本内容的起始位置;
将该角色名称和关键字对应的文本内容确定为该角色名称对应的文本内容。
在一种可能的实现方式中,该获取模块,还用于获取音频配置文件,该音频配置文件包括多种音色模型,每种音色模型中包括多种音色类型;
该装置还包括:
确定模块,用于根据该音频配置文件,确定该目标文本内容中各个角色对应的音色类型。
在一种可能的实现方式中,该保存模块,用于将音乐库中符合目标条件的音乐确定为背景音乐;
对该目标音频资源和该背景音乐进行合成,得到合成后的目标音频资源;
保存该合成后的目标音频资源。
在一种可能的实现方式中,该保存模块,用于计算该音乐库中的音乐与该目标文本内容之间的匹配度,将匹配度满足第一目标条件的音乐确定为背景音乐;
或者,获取该音乐库中的音乐的排行指数,将该排行指数符合第二目标条件的音乐确定为背景音乐。
在一种可能的实现方式中,该接收模块,还用于接收该目标音频资源的播放请求,该播放请求携带该目标文本内容的标识;
该获取模块,还用于基于该目标文本内容的标识,获取该目标文本内容和该目标文本内容的目标音频资源;
该装置还包括:
显示模块,用于显示该目标文本内容;
播放模块,用于播放该目标文本内容的目标音频资源。
另一方面,提供了一种计算机设备,该计算机设备包括处理器和存储器,该存储器中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述任一文本内容处理方法。
另一方面,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述任一文本内容处理方法。
本申请实施例提供的技术方案至少带来如下有益效果:
本申请实施例提供的技术方案基于目标文本内容中不同角色的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,该目标音频资源不仅可以保留目标文本内容,还可以将目标文本内容中不同角色对应的文本内容用不同的音色类型来表示,使得目标文本内容更加真实,由于该目标文本内容的处理过程不需要用户的参与,因此还可以节省文本内容处理的时间,提高处理的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种文本内容处理方法的实施环境示意图;
图2是本申请实施例提供的一种文本内容处理方法的流程图;
图3是本申请实施例提供的一种文本内容处理方法的流程图;
图4是本申请实施例提供的一种文本内容处理装置的结构示意图;
图5是本申请实施例提供的一种计算机设备的结构示意图;
图6是本申请实施例提供的一种目标服务器的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
下面先对本申请涉及的相关术语进行解释:
语音合成技术:是通过机械的、电子的方法产生人造语音的技术。从文字到语音(Text To Speech,TTS)技术隶属于语音合成技术,可以将文本转化为语音输出,让机器可以说话。
自然语言处理(Natural Language Processing,NLP):是计算机科学领域与人工智能领域中的一个重要方向,自然语言处理可以实现人与计算机之间用自然语言进行有效通信的各种理论和方法,简单来说,就是让机器理解人说话的意思。
图1是本申请实施例提供的一种文本内容处理方法的实施环境示意图,参见图1,该实施环境包括:计算机设备101和目标服务器102。
计算机设备101可以是智能手机、游戏主机、台式计算机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器和膝上型便携计算机中的至少一种。计算机设备101可以接收用户触发的目标音频资源获取请求,基于该目标文本内容中不同角色对应的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,计算机设备101还可以保存该目标文本内容的目标音频资源。计算机设备101还可以通过有线网络或无线网络与目标服务器102进行通信,响应于目标音频资源获取请求,向目标服务器发送目标音频资源获取指令,并接收该目标服务器返回的目标音频资源。
计算机设备101可以泛指多个计算机设备中的一个,本实施例仅以计算机设备101来举例说明。本领域技术人员可以知晓,上述计算机设备的数量可以更多或更少。比如上述计算机设备可以仅为一个,或者上述计算机设备为几十个或几百个,或者更多数量,本申请实施例对计算机设备的数量和设备类型不加以限定。
目标服务器102可以为一台服务器,也可以是多台服务器,还可以是云计算平台和虚拟化中心中的至少一种。目标服务器102可以通过有线网络或无线网络与计算机设备101进行通信,目标服务器102接收计算机设备101发送的音频资源获取指令,响应于该音频资源获取指令,获取目标文本内容的目标音频资源,该目标音频资源是基于目标文本内容中不同角色对应的音色类型和目标文本内容中不同角色对应的文本内容所生成的。目标服务器102还可以向计算机设备101发送该目标文本内容的目标音频资源。可选地,上述目标服务器的数量可以更多或更少,本申请实施例对此不加以限定。当然,目标服务器102还可以包括其他功能服务器,以便提供更全面且多样化的服务。
基于上述实施环境,本申请实施例提供了一种文本内容处理方法,以图2所示的本申请实施例提供的一种文本内容处理方法的流程图为例,该方法可由图1中的计算机设备101执行。如图2所示,该方法包括下述步骤:
在步骤201中,接收目标文本内容的目标音频资源获取请求,该目标文本内容包括至少一个角色的文本内容。
在本申请实施例中,计算机设备中可以存储有多个文本内容,每个文本内容可以是多个角色之间的对话内容,也可以是一个角色的独白,本申请实施例对计算机设备中存储的多个文本内容中的角色数量不做限制。
在一种可能的实现方式中,用户可以在该多个文本内容中点击一个文本内容,计算机设备响应于用户的点击操作,将该用户点击的文本内容确定为目标文本内容。计算机设备还可以跳转至该目标文本内容的显示界面,该显示界面中可以显示有该目标文本内容中每个角色对应的文本内容和播放按钮。
在一种可能的实现方式中,用户可以在目标文本内容的显示界面中点击该目标文本内容对应的播放按钮,计算机设备在检测到该点击操作时,可以生成该目标文本内容的目标音频资源获取请求,该音频资源获取请求可以携带该目标文本内容的标识,该目标文本内容的标识可以是该目标文本内容的名称,也可以是该目标文本内容的编号,本申请实施例对此不做限定。
例如,在该计算机设备中存储有三个文本内容,分别为文本内容1、文本内容2、文本内容3。用户在该三个文本内容中点击文本内容1,计算机设备响应于用户的点击操作,将该文本内容1确定为目标文本内容。用户还可以在该文本内容1的显示界面中点击播放按钮,计算机设备根据该点击操作,生成文本内容1对应的音频资源获取请求,也即是获取到该目标文本内容的音频资源获取请求。
在步骤202中,基于目标文本内容中不同角色对应的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,该目标音频资源中采用不同音色类型表示不同角色对应的文本内容。
在本申请示例性实施例中,基于该目标文本内容中不同角色对应的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,可以有下述步骤:
步骤2021、确定目标文本内容对应的音素序列。
在本申请实施例中,计算机设备可以通过TTS技术,将计算机设备产生的,或用户输入的文字内容转变为可以听得懂的、流利的口语输出。示例性地,通过TTS技术来进行语音合成可以分为文本转音素、频率预测、音频合成三个过程。其中,音素是根据语音的自然属性划分出来的最小语音单位。从声学性质来看,音素是从音质角度划分出来的最小语音单位。从生理性质来看,一个发音动作形成一个音素。如[wo]包含[w]和[o]两个发音动作,也即是包括两个音素。
在一种可能的实现方式中,音素字典中保存有每个文字和该文字的音素的对应关系。计算机设备可以获取该目标文本内容,在该音素字典中查看该目标文本内容中每个文字对应的音素,从而得到该目标文本内容对应的音素序列。
需要说明的是,在确定该目标文本内容对应的音素序列的过程中,如果出现目标文本内容中的某个文字对应的音素在该音素字典中查询不到的情况,则可以通过其他方式查询该文字对应的音素,本申请实施例对此不做限定。
步骤2022、识别该目标文本内容中不同角色对应的文本内容,确定该目标文本内容中不同角色对应的文本内容对应的音素序列。
在一种可能的实现方式中,识别所述目标文本内容中不同角色对应的文本内容的过程如下:识别目标文本内容中不同角色对应的角色名称和关键字,关键字用于标识角色名称对应的文本内容的起始位置;将角色名称和关键字对应的文本内容确定为角色名称对应的文本内容。
在一种可能的实现方式中,计算机设备可以通过语义识别,对该目标文本内容进行识别,确定出该目标文本内容中不同角色对应的角色名称,并在该角色名称后的参考数量的文字内,对该角色名称对应的关键字进行识别,该参考数量的文字可以是3个文字,也可以是5个文字,本申请实施例对此不做限定。该关键字用于标识角色名称对应的文本内容的起始位置。示例性地,该关键字可以为“说”、“回答”、“问”等。在本申请实施例中,该目标文本内容的不同角色对应的关键字还可以是其它的字或词,本申请实施例对此不做限定。
例如,目标文本内容包括角色A和角色B,角色A和角色B之间的对话内容如下:
角色A说:“老师,他怕针,上次扎预防针,他说他想变成穿山甲。”
角色B问:“那为什么想变成穿山甲呢?”
角色A回答:“因为穿山甲的皮厚,针扎不进去。”
角色B笑着说:“哈哈哈哈哈~~~~~~”
在上述示例中,计算机设备可以对这段文本内容进行识别,确定出这段文本内容中出现的角色名称有角色A和角色B,并识别出角色名称后的文本内容中的关键字“说”、“回答”、“问”。
在一种可能的实现方式中,计算机设备还可以对目标文本内容中的标点符号进行识别,识别出目标文本内容中用于指示说话内容的标点符号,将该标点符号所指示的内容确定为角色名称对应的文本内容,再根据该标点符号,确定出该角色的角色名称。例如,在该标点符号前后的参考个数个文字内,确定角色的角色名称。该参考个数个文字可以是3个文字,也可以是5个文字,本申请实施例对此不做限定。示例性地,可以在该标点符号前后的3个文字内,确定角色的角色名称。
在一种可能的实现方式中,计算机设备可以在识别出角色名称和关键字后,将位于角色名称和/或关键字后的:或“作为该角色名称对应的文本内容的起始标识,将”确定为该角色名称对应的文本内容的终止标识,进而将位于起始标识和终止标识之间的文本内容确定为该角色名称对应的文本内容。可选地,该起始标识和终止标识还可以包括其他多种类型,本申请实施例对此不做限定。
在一种可能的实现方式中,基于上述步骤2021确定的目标文本内容对应的音素序列和本步骤2022中获取到目标文本内容中不同角色对应的文本内容,在该目标文本内容对应的音素序列中,确定该不同角色对应的文本内容对应的音素序列。
步骤2023、基于目标文本内容中不同角色对应的音色类型,对目标文本内容中不同角色对应的文本内容对应的音素序列进行合成,得到不同角色对应的音频资源。
在本申请实施例中,基于目标文本内容中不同角色对应的音色类型,对目标文本内容中不同角色对应的文本内容对应的音素序列进行合成之前,还需要先确定目标文本内容中不同角色对应的音色类型。该不同角色对应的音色类型的确定过程如下:
步骤一、获取音频配置文件,该音频配置文件包括多种音色模型,每种音色模型包括多种音色。
在一种可能的实现方式中,计算机设备可以从文本内容的提供者处获取到多个文本内容的各种配置文件,如音频配置文件等。该音频配置文件中包括多个音色模型,如男声模型、女声模型、童声模型等。该多个音色模型中分别包括多个音色类型。如男声模型中包括的多个音色类型分别为正太音、青年音、青叔音、大叔音、老年音、帝王音、公子音等。
在一种可能的实现方式中,计算机设备中存储有每个文本内容和与该文本内容对应的音频配置文件。计算机设备在接收到目标文本内容的目标音频资源获取请求后,对该目标音频资源获取请求进行解析,得到该目标文本内容的标识。基于该目标文本内容的标识,获取该目标文本内容对应的音频配置文件。
步骤二、根据该音频配置文件,确定该目标文本内容中各个角色对应的音色类型。
在一种可能的实现方式中,计算机设备根据该目标文本内容对应的音频配置文件,确定出该音频配置文件中出现的多个音色类型。根据该多个音色类型和该目标文本内容中出现的多个角色,确定该目标文本内容中各个角色对应的音色类型。
例如,该目标文本内容对应的音频文件中出现了三个角色,则基于该音频配置文件,确定这三个角色对应的音色类型分别为:角色1为阳光男声,角色2为甜美女声,角色3为稚嫩童声。
在一种可能的实现方式中,基于上述确定的目标文本内容中不同角色对应的音色类型,对上述步骤2022中确定的不同角色对应的文本内容对应的音素序列进行合成,从而得到不同角色的文本内容对应的音频资源。
步骤2024、根据不同角色对应的音频资源,得到目标文本内容对应的目标音频资源。
在一种可能的实现方式中,按照每个角色的出场顺序,也即是每个角色对应的文本内容在目标文本内容中的出场顺序,对每个角色对应的音频资源进行合成,从而得到目标文本内容对应的目标音频资源。
示例性地,可以按照每个角色的出场顺序,对上述步骤2023得到的每个角色的音频资源进行拼接,从而得到目标文本内容的目标音频资源。例如,对于上述步骤2022中示出的文本内容,根据角色A和角色B的出场顺序,按照角色A的第一段音频资源、角色B的第一段音频资源、角色A的第二段音频资源、角色B的第二段音频资源的顺序进行拼接,从而得到目标音频资源。
在步骤203中,保存目标文本内容的目标音频资源。
在本申请实施例中,计算机设备可以保存上述步骤202所得到的目标文本内容的目标音频资源。
在一种可能的实现方式中,计算机设备还可以将音乐库中符合目标条件的音乐确定为背景音乐,对上述步骤202得到的目标音频资源和该背景音乐进行合成,得到合成后的目标音频资源,并保存合成后的目标音频资源。
在一种可能的实现方式中,可以有下述任一种实现方式将音乐库中符合目标条件的音乐确定为背景音乐:
实现方式一、计算音乐库中的音乐与目标文本内容之间的匹配度,将匹配度满足第一目标条件的音乐确定为背景音乐。
在一种可能的实现方式中,计算机设备可以获取其存储空间中的所有音乐,依次计算每首音乐与目标文本内容之间的匹配度。计算机设备还可以将得到的每首音乐的匹配度按照由高到低的顺序进行排序,也可以按照匹配度由低到高的顺序进行排序,本申请实施例对该音乐库中的音乐的排序方式不做限定。根据该排序结果,将匹配度满足第一目标条件的音乐确定为背景音乐。例如,该满足第一目标条件的音乐可以是匹配度最高的音乐,本申请实施例对此不做限定。
在一种可能的实现方式中,音乐库中的音乐和目标文本内容之间的匹配度的计算过程可以如下:将该目标文本内容和音乐库中的音乐输入目标匹配度计算模型,基于该目标匹配度计算模型的输出结果,得到音乐库中的音乐与目标文本内容之间的匹配度。
例如,将目标文本内容和音乐1、音乐2、音乐3输入目标匹配度计算模型,基于该目标匹配度计算模型的输出结果,得到音乐1的匹配度为85%,音乐2的匹配度为95%,音乐3的匹配度为80%。因此,可以将该音乐2作为符合第一目标条件的背景音乐。
在一种可能的实现方式中,获取该目标匹配度计算模型的方式可以如下:计算机设备可以获取音乐库中的每首音乐的种类风格,例如,该种类风格可以是流行音乐、摇滚音乐、爵士音乐等等。计算机设备可以获取多个文本内容,基于该多个文本内容和该音乐库中的每首音乐的种类风格,对初始匹配度计算模型进行训练,从而得到精度较高的目标匹配度计算模型。
其中,初始匹配度计算模型可以是任意类型的神经网络模型,本申请实施例对此不做限定。例如,该初始匹配度计算模型可以是倾向值匹配模型(Price SensitivityMeasurement,PSM)。
实现方式二、获取音乐库中的音乐的排行指数,将排行指数符合第二目标条件的音乐确定为背景音乐。
在一种可能的实现方式中,计算机设备可以获取音乐库中的音乐排行榜,基于该音乐排行榜,将排行指数满足第二目标条件的音乐确定为背景音乐,例如,该排行指数满足第二目标条件的音乐可以是排行指数最高的音乐。
在一种可能的实现方式中,计算机设备还可以获取音乐库中的音乐排行榜,将排行指数在参考数量内的音乐确定为候选背景音乐,在该候选背景音乐中随机确定一首音乐为背景音乐。示例性地,该排行指数在参考数量内的音乐可以是排行指数在前3位的音乐,也可以是排行指数在前5位的音乐,本申请实施例对此不做限定。
例如,将音乐库中排行指数在前5位的音乐确定为候选背景音乐,分别是候选背景音乐1、候选背景音乐2、候选背景音乐3、候选背景音乐4、候选背景音乐5,在该5首候选背景音乐中随机确定一首候选背景音乐为背景音乐,如将候选背景音乐3确定为背景音乐。
实现方式三、响应于用户的确定操作,将该确定操作所指示的音乐确定为背景音乐。
在一种可能的实现方式中,用户可以访问该计算机设备中的音乐库,用户可以根据自己的喜好在该音乐库中手动选择一首歌曲,当计算机设备检测到用户的确定操作后,将该确定操作所指示的音乐确定为背景音乐。
需要说明的是,计算机设备可以选择上述任一种实现方式在音乐库中确定背景音乐,本申请实施例对此不做限定。
在本申请实施例中,当用户想要收听某个目标文本内容的目标音频资源时,可以在该目标文本内容的显示界面中点击播放按钮,也即是向计算机设备发送该目标文本内容的目标音频资源的播放请求,该播放请求携带目标文本内容的标识。当计算机设备接收到该目标音频资源的播放请求后,对该播放请求进行解析,得到该播放请求中携带的目标文本内容的标识。基于该目标文本内容的标识,获取该目标文本内容和目标文本内容的目标音频资源。计算机设备还可以播放该目标文本内容的目标音频资源。当然,计算机设备还可以在播放该目标文本内容的目标音频资源的同时,显示该目标文本内容。
在一种可能的实现方式中,计算机设备还可以将该目标文本内容的目标音频资源添加在VR场景或视频文件中,从而得到新的VR场景或视频文件。也即是,若计算机设备中存储有视频文件,则可以将该目标音频资源导入该视频文件中,以使得该视频文件不单有画面,还有声音,从而使得该视频文件更加充实,一定程度上还可以提高观看该视频文件的用户的体验感。
上述方法基于目标文本内容中不同角色的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,该目标音频资源不仅可以保留目标文本内容,还可以将目标文本内容中不同角色对应的文本内容用不同的音色类型来表示,使得目标文本内容更加真实,由于该目标文本内容的处理过程不需要用户的参与,因此还可以节省文本内容处理的时间,提高处理的效率。
图3所示为本申请实施例提供的一种文本内容处理方法的流程图,该方法以计算机设备101和目标服务器102之间的交互进行说明。参见图3,该方法包括:
在步骤301中,计算机设备接收目标文本内容的目标音频资源获取请求,该目标文本内容包括至少一个角色的文本内容。
在本申请实施例中,计算机设备接收目标文本内容的目标音频资源获取请求的过程与上述步骤201的过程一致,在此不再赘述。
在步骤302中,计算机设备响应于该目标音频资源获取请求,向目标服务器发送目标音频资源获取指令,该目标音频资源获取指令携带目标文本内容的标识。
在本申请实施例中,计算机设备在上述步骤301中接收到目标音频资源获取请求后,可以直接向目标服务器发送目标音频资源获取指令。也可以在接收到目标服务器的获取请求后,向目标服务器发送目标音频资源获取指令。本申请实施例对该目标音频资源获取指令的发送时机不做限定。
在步骤303中,目标服务器接收该目标音频资源获取指令,基于该目标音频资源获取指令获取目标文本内容的目标音频资源,该目标音频资源基于目标文本内容中不同角色对应的音色类型和目标文本内容中不同角色对应的文本内容所生成,该目标音频资源为目标文本内容的标识对应的音频资源。
在本申请实施例中,目标服务器获取目标文本内容的目标音频资源的过程与上述步骤202过程一致,在此不再赘述。
在步骤304中,目标服务器将该目标文本内容的目标音频资源发送至计算机设备。
在本申请实施例中,目标服务器在上述步骤303中获取到目标文本内容的目标音频资源后,可以直接将该目标文本内容的目标音频资源发送至计算机设备。还可以在接收到计算机设备发送的音频资源获取请求后,将该目标文本内容的目标音频资源发送至计算机设备。本申请实施例对该目标文本内容的目标音频资源的发送时机不做限定。
在步骤305中,计算机设备接收目标服务器返回的目标文本内容的目标音频资源,保存该目标文本内容的目标音频资源。
在本申请实施例中,计算机设备保存该目标文本内容的目标音频资源的过程与上述步骤203的过程一致,在此不再赘述。
上述方法基于目标文本内容中不同角色的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,该目标音频资源不仅可以保留目标文本内容,还可以将目标文本内容中不同角色对应的文本内容用不同的音色类型来表示,使得目标文本内容更加真实,由于该目标文本内容的处理过程不需要用户的参与,因此还可以节省文本内容处理的时间,提高处理的效率。
图4所示为本申请实施例提供的一种文本内容处理装置的结构示意图,如图4所示,该装置包括:
接收模块401,用于接收目标文本内容的目标音频资源获取请求,该目标文本内容包括至少一个角色的文本内容;
获取模块402,用于基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容,获取该目标文本内容的目标音频资源,该目标音频资源中采用不同音色类型表示不同角色对应的文本内容;
保存模块403,用于保存该目标文本内容的目标音频资源。
在一种可能的实现方式中,该获取模块402,用于响应于该目标音频资源获取请求,向目标服务器发送目标音频资源获取指令,该目标音频资源获取指令携带该目标文本内容的标识;
接收该目标服务器返回的目标音频资源,该目标音频资源基于该目标文本内容中不同角色对应的音色类型和该目标文本内容中不同角色对应的文本内容所生成,该目标音频资源为该目标文本内容的标识对应的音频资源。
在一种可能的实现方式中,该获取模块402,用于确定该目标文本内容对应的音素序列;
识别该目标文本内容中不同角色对应的文本内容,确定该目标文本内容中不同角色对应的文本内容对应的音素序列;
基于该目标文本内容中不同角色对应的音色类型,对该目标文本内容中不同角色对应的文本内容对应的音素序列进行合成,得到不同角色对应的音频资源;
根据该不同角色对应的音频资源,得到该目标文本内容对应的目标音频资源。
在一种可能的实现方式中,该获取模块402,用于识别该目标文本内容中不同角色对应的角色名称和关键字,该关键字用于标识该角色名称对应的文本内容的起始位置;
将该角色名称和关键字对应的文本内容确定为该角色名称对应的文本内容。
在一种可能的实现方式中,该获取模块402,还用于获取音频配置文件,该音频配置文件包括多种音色模型,每种音色模型中包括多种音色类型;
该装置还包括:
确定模块,用于根据该音频配置文件,确定该目标文本内容中各个角色对应的音色类型。
在一种可能的实现方式中,该保存模块403,用于将音乐库中符合目标条件的音乐确定为背景音乐;
对该目标音频资源和该背景音乐进行合成,得到合成后的目标音频资源;
保存该合成后的目标音频资源。
在一种可能的实现方式中,该保存模块403,用于计算该音乐库中的音乐与该目标文本内容之间的匹配度,将匹配度满足第一目标条件的音乐确定为背景音乐;
或者,获取该音乐库中的音乐的排行指数,将该排行指数符合第二目标条件的音乐确定为背景音乐。
在一种可能的实现方式中,该接收模块401,还用于接收该目标音频资源的播放请求,该播放请求携带该目标文本内容的标识;
该获取模块402,还用于基于该目标文本内容的标识,获取该目标文本内容和该目标文本内容的目标音频资源;
该装置还包括:
显示模块,用于显示该目标文本内容;
播放模块,用于播放该目标文本内容的目标音频资源。
上述装置基于目标文本内容中不同角色的音色类型和目标文本内容中不同角色对应的文本内容,获取目标文本内容的目标音频资源,该目标音频资源不仅可以保留目标文本内容,还可以将目标文本内容中不同角色对应的文本内容用不同的音色类型来表示,使得目标文本内容更加真实,由于该目标文本内容的处理过程不需要用户的参与,因此还可以节省文本内容处理的时间,提高处理的效率。
需要说明的是:上述实施例提供的文本内容处理装置在进行文本内容处理时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将文本内容处理装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的文本内容处理装置与文本内容处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图5是本申请实施例提供的一种计算机设备的结构示意图。该计算机设备500可以是:智能手机、平板电脑、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。计算机设备500还可能被称为用户设备、便携式计算机设备、膝上型计算机设备、台式计算机设备等其他名称。
通常,计算机设备500包括有:一个或多个处理器501和一个或多个存储器502。
处理器501可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器501可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器501也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器501可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器501还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器502可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器502还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器502中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器501所执行以实现本申请中方法实施例提供的文本内容处理方法。
在一些实施例中,计算机设备500还可选包括有:外围设备接口503和至少一个外围设备。处理器501、存储器502和外围设备接口503之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口503相连。具体地,外围设备包括:射频电路504、显示屏505、摄像头506、音频电路507、定位组件508和电源509中的至少一种。
外围设备接口503可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器501和存储器502。在一些实施例中,处理器501、存储器502和外围设备接口503被集成在同一芯片或电路板上;在一些其他实施例中,处理器501、存储器502和外围设备接口503中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路504用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路504通过电磁信号与通信网络以及其他通信设备进行通信。射频电路504将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路504包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路504可以通过至少一种无线通信协议来与其它计算机设备进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路504还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏505用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏505是触摸显示屏时,显示屏505还具有采集在显示屏505的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器501进行处理。此时,显示屏505还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏505可以为一个,设置计算机设备500的前面板;在另一些实施例中,显示屏505可以为至少两个,分别设置在计算机设备500的不同表面或呈折叠设计;在再一些实施例中,显示屏505可以是柔性显示屏,设置在计算机设备500的弯曲表面上或折叠面上。甚至,显示屏505还可以设置成非矩形的不规则图形,也即异形屏。显示屏505可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-EmittingDiode,有机发光二极管)等材质制备。
摄像头组件506用于采集图像或视频。可选地,摄像头组件506包括前置摄像头和后置摄像头。通常,前置摄像头设置在计算机设备的前面板,后置摄像头设置在计算机设备的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件506还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路507可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器501进行处理,或者输入至射频电路504以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在计算机设备500的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器501或射频电路504的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路507还可以包括耳机插孔。
定位组件508用于定位计算机设备500的当前地理位置,以实现导航或LBS(Location Based Service,基于位置的服务)。定位组件508可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源509用于为计算机设备500中的各个组件进行供电。电源509可以是交流电、直流电、一次性电池或可充电电池。当电源509包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,计算机设备500还包括有一个或多个传感器510。该一个或多个传感器510包括但不限于:加速度传感器511、陀螺仪传感器512、压力传感器513、指纹传感器514、光学传感器515以及接近传感器516。
加速度传感器511可以检测以计算机设备500建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器511可以用于检测重力加速度在三个坐标轴上的分量。处理器501可以根据加速度传感器511采集的重力加速度信号,控制显示屏505以横向视图或纵向视图进行用户界面的显示。加速度传感器511还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器512可以检测计算机设备500的机体方向及转动角度,陀螺仪传感器512可以与加速度传感器511协同采集用户对计算机设备500的3D动作。处理器501根据陀螺仪传感器512采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器513可以设置在计算机设备500的侧边框和/或显示屏505的下层。当压力传感器513设置在计算机设备500的侧边框时,可以检测用户对计算机设备500的握持信号,由处理器501根据压力传感器513采集的握持信号进行左右手识别或快捷操作。当压力传感器513设置在显示屏505的下层时,由处理器501根据用户对显示屏505的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器514用于采集用户的指纹,由处理器501根据指纹传感器514采集到的指纹识别用户的身份,或者,由指纹传感器514根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器501授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器514可以被设置计算机设备500的正面、背面或侧面。当计算机设备500上设置有物理按键或厂商Logo时,指纹传感器514可以与物理按键或厂商Logo集成在一起。
光学传感器515用于采集环境光强度。在一个实施例中,处理器501可以根据光学传感器515采集的环境光强度,控制显示屏505的显示亮度。具体地,当环境光强度较高时,调高显示屏505的显示亮度;当环境光强度较低时,调低显示屏505的显示亮度。在另一个实施例中,处理器501还可以根据光学传感器515采集的环境光强度,动态调整摄像头组件506的拍摄参数。
接近传感器516,也称距离传感器,通常设置在计算机设备500的前面板。接近传感器516用于采集用户与计算机设备500的正面之间的距离。在一个实施例中,当接近传感器516检测到用户与计算机设备500的正面之间的距离逐渐变小时,由处理器501控制显示屏505从亮屏状态切换为息屏状态;当接近传感器516检测到用户与计算机设备500的正面之间的距离逐渐变大时,由处理器501控制显示屏505从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图5中示出的结构并不构成对计算机设备500的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
图6是本申请实施例提供的一种目标服务器的结构示意图,该目标服务器600可因配置或性能不同而产生比较大的差异,可以包括一个或多个处理器(Central ProcessingUnits,CPU)601和一个或多个的存储器602,其中,该一个或多个存储器602中存储有至少一条程序代码,该至少一条程序代码由该一个或多个处理器601加载并执行以实现上述各个方法实施例提供的文本内容处理方法。当然,该目标服务器600还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该目标服务器600还可以包括其他用于实现设备功能的部件,在此不做赘述。
在示例性实施例中,还提供了一种计算机可读存储介质,该存储介质中存储有至少一条程序代码,该至少一条程序代码由计算机设备的处理器加载并执行,以实现上述任一种文本内容处理方法。
可选地,上述计算机可读存储介质可以是只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、只读光盘(Compact Disc Read-OnlyMemory,CD-ROM)、磁带、软盘和光数据存储设备等。
应当理解的是,在本文中提及的“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
以上仅为本申请的示例性实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (7)

1.一种文本内容处理方法,其特征在于,所述方法包括:
接收目标文本内容的目标音频资源获取请求,所述目标文本内容包括至少一个角色的文本内容;
对所述目标文本内容进行语义识别,得到所述目标文本内容中不同角色对应的角色名称;
在所述角色名称后的参考数量的文字内,确定所述角色名称对应的关键字,所述关键字用于标识所述角色名称对应的文本内容的起始位置;
将位于所述关键字后的左双引号作为所述角色名称对应的文本内容的起始标识,将右双引号确定为所述角色名称对应的文本内容的终止标识,将位于所述起始标识和所述终止标识之间的文本内容确定为所述角色名称对应的文本内容;
根据所述目标文本内容对应的音素序列,确定所述目标文本内容中不同角色对应的文本内容对应的音素序列;
确定所述目标文本内容中各个角色对应的音色类型,不同角色对应的音色类型不同;
根据所述目标文本内容中不同角色对应的音色类型,对所述不同角色对应的文本内容对应的音素序列进行合成,得到所述不同角色的文本内容对应的音频资源;
按照所述不同角色对应的文本内容在所述目标文本内容中的出场顺序,对所述不同角色对应的音频资源进行拼接,得到所述目标文本内容对应的目标音频资源;
计算音乐库中的音乐与所述目标文本内容之间的匹配度,将匹配度满足第一目标条件的音乐确定为背景音乐,或者,获取所述音乐库中的音乐的排行指数,将排行指数符合第二目标条件的音乐确定为背景音乐,或者,响应于用户的确定操作,将所述确定操作指示的音乐确定为所述背景音乐;
对所述目标音频资源和所述背景音乐进行合成,得到合成后的目标音频资源;
保存所述合成后的目标音频资源。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述目标音频资源获取请求,向目标服务器发送目标音频资源获取指令,所述目标音频资源获取指令携带所述目标文本内容的标识;
接收所述目标服务器返回的目标音频资源,所述目标音频资源基于所述目标文本内容中不同角色对应的音色类型和所述目标文本内容中不同角色对应的文本内容所生成,所述目标音频资源为所述目标文本内容的标识对应的音频资源。
3.根据权利要求1所述的方法,其特征在于,所述确定所述目标文本内容中各个角色对应的音色类型,包括:
获取音频配置文件,所述音频配置文件包括多种音色模型,每种音色模型中包括多种音色类型;
根据所述音频配置文件,确定所述目标文本内容中各个角色对应的音色类型。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收所述目标音频资源的播放请求,所述播放请求携带所述目标文本内容的标识;
基于所述目标文本内容的标识,获取所述目标文本内容和所述目标文本内容的目标音频资源;
显示所述目标文本内容;
播放所述目标文本内容的目标音频资源。
5.一种文本内容处理装置,其特征在于,所述装置包括:
接收模块,用于接收目标文本内容的目标音频资源获取请求,所述目标文本内容包括至少一个角色的文本内容;
获取模块,用于对所述目标文本内容进行语义识别,得到所述目标文本内容中不同角色对应的角色名称;在所述角色名称后的参考数量的文字内,确定所述角色名称对应的关键字,所述关键字用于标识所述角色名称对应的文本内容的起始位置;将位于所述关键字后的左双引号作为所述角色名称对应的文本内容的起始标识,将右双引号确定为所述角色名称对应的文本内容的终止标识,将位于所述起始标识和所述终止标识之间的文本内容确定为所述角色名称对应的文本内容;根据所述目标文本内容对应的音素序列,确定所述目标文本内容中不同角色对应的文本内容对应的音素序列;确定所述目标文本内容中各个角色对应的音色类型,不同角色对应的音色类型不同;根据所述目标文本内容中不同角色对应的音色类型,对所述不同角色对应的文本内容对应的音素序列进行合成,得到所述不同角色的文本内容对应的音频资源;按照所述不同角色对应的文本内容在所述目标文本内容中的出场顺序,对所述不同角色对应的音频资源进行拼接,得到所述目标文本内容对应的目标音频资源;
保存模块,用于计算音乐库中的音乐与所述目标文本内容之间的匹配度,将匹配度满足第一目标条件的音乐确定为背景音乐,或者,获取所述音乐库中的音乐的排行指数,将排行指数符合第二目标条件的音乐确定为背景音乐,或者,响应于用户的确定操作,将所述确定操作指示的音乐确定为所述背景音乐;对所述目标音频资源和所述背景音乐进行合成,得到合成后的目标音频资源;保存所述合成后的目标音频资源。
6.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至4任一所述的文本内容处理方法。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至4任一所述的文本内容处理方法。
CN202010209314.8A 2020-03-23 2020-03-23 文本内容处理方法、装置、计算机设备及存储介质 Active CN111428079B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010209314.8A CN111428079B (zh) 2020-03-23 2020-03-23 文本内容处理方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010209314.8A CN111428079B (zh) 2020-03-23 2020-03-23 文本内容处理方法、装置、计算机设备及存储介质

Publications (2)

Publication Number Publication Date
CN111428079A CN111428079A (zh) 2020-07-17
CN111428079B true CN111428079B (zh) 2023-11-28

Family

ID=71549558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010209314.8A Active CN111428079B (zh) 2020-03-23 2020-03-23 文本内容处理方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN111428079B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113590467B (zh) * 2021-06-30 2023-07-21 平安健康保险股份有限公司 数据比对方法、系统、计算机设备及计算机可读存储介质
CN113658458B (zh) * 2021-08-20 2024-02-13 北京得间科技有限公司 对话小说的阅读处理方法、计算设备及存储介质
CN114783403B (zh) * 2022-02-18 2024-08-13 腾讯科技(深圳)有限公司 有声读物的生成方法、装置、设备、存储介质及程序产品

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109523986A (zh) * 2018-12-20 2019-03-26 百度在线网络技术(北京)有限公司 语音合成方法、装置、设备以及存储介质
CN109658916A (zh) * 2018-12-19 2019-04-19 腾讯科技(深圳)有限公司 语音合成方法、装置、存储介质和计算机设备
CN109726309A (zh) * 2018-11-22 2019-05-07 百度在线网络技术(北京)有限公司 音频生成方法、装置及存储介质
CN109979430A (zh) * 2017-12-28 2019-07-05 深圳市优必选科技有限公司 一种机器人讲故事的方法、装置、机器人及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10319375B2 (en) * 2016-12-28 2019-06-11 Amazon Technologies, Inc. Audio message extraction

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109979430A (zh) * 2017-12-28 2019-07-05 深圳市优必选科技有限公司 一种机器人讲故事的方法、装置、机器人及存储介质
CN109726309A (zh) * 2018-11-22 2019-05-07 百度在线网络技术(北京)有限公司 音频生成方法、装置及存储介质
CN109658916A (zh) * 2018-12-19 2019-04-19 腾讯科技(深圳)有限公司 语音合成方法、装置、存储介质和计算机设备
CN109523986A (zh) * 2018-12-20 2019-03-26 百度在线网络技术(北京)有限公司 语音合成方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN111428079A (zh) 2020-07-17

Similar Documents

Publication Publication Date Title
CN110379430B (zh) 基于语音的动画显示方法、装置、计算机设备及存储介质
CN111524501B (zh) 语音播放方法、装置、计算机设备及计算机可读存储介质
CN110556127B (zh) 语音识别结果的检测方法、装置、设备及介质
CN110933330A (zh) 视频配音方法、装置、计算机设备及计算机可读存储介质
CN111428079B (zh) 文本内容处理方法、装置、计算机设备及存储介质
CN110572716B (zh) 多媒体数据播放方法、装置及存储介质
CN110992927B (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
WO2022111168A1 (zh) 视频的分类方法和装置
CN112735429B (zh) 确定歌词时间戳信息的方法和声学模型的训练方法
CN111276122B (zh) 音频生成方法及装置、存储介质
CN110798327B (zh) 消息处理方法、设备及存储介质
CN113220590A (zh) 语音交互应用的自动化测试方法、装置、设备及介质
CN111081277B (zh) 音频测评的方法、装置、设备及存储介质
CN112667844A (zh) 检索音频的方法、装置、设备和存储介质
CN110837557B (zh) 摘要生成方法、装置、设备及介质
CN111835621A (zh) 会话消息处理方法、装置、计算机设备及可读存储介质
CN113744736B (zh) 命令词识别方法、装置、电子设备及存储介质
CN113362836B (zh) 训练声码器方法、终端及存储介质
CN108831423B (zh) 提取音频数据中主旋律音轨的方法、装置、终端及存储介质
CN113724739B (zh) 检索音频和训练声学模型的方法、终端及存储介质
CN113593521B (zh) 语音合成方法、装置、设备及可读存储介质
CN112786025B (zh) 确定歌词时间戳信息的方法和声学模型的训练方法
CN111640432B (zh) 语音控制方法、装置、电子设备及存储介质
CN111028823B (zh) 音频生成方法、装置、计算机可读存储介质及计算设备
CN111125424B (zh) 提取歌曲核心歌词的方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant