CN114360494A - 韵律标注方法、装置、计算机设备及存储介质 - Google Patents
韵律标注方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN114360494A CN114360494A CN202111642835.3A CN202111642835A CN114360494A CN 114360494 A CN114360494 A CN 114360494A CN 202111642835 A CN202111642835 A CN 202111642835A CN 114360494 A CN114360494 A CN 114360494A
- Authority
- CN
- China
- Prior art keywords
- character
- features
- text
- information
- acoustic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000002372 labelling Methods 0.000 title claims abstract description 82
- 230000033764 rhythmic process Effects 0.000 title abstract description 9
- 238000000034 method Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims description 35
- 238000000605 extraction Methods 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 claims description 21
- 238000003786 synthesis reaction Methods 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 10
- 238000012935 Averaging Methods 0.000 claims description 5
- 230000002093 peripheral effect Effects 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 101100340610 Mus musculus Igdcc3 gene Proteins 0.000 description 2
- 206010034719 Personality change Diseases 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 239000000919 ceramic Substances 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 210000001072 colon Anatomy 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本申请实施例公开了一种韵律标注方法、装置、计算机设备及存储介质,属于计算机技术领域。该方法包括:对文本信息进行语义特征提取,得到所述文本信息的文本语义特征,所述文本语义特征表示所述文本信息中相邻的每两个字符之间的关联关系;对所述文本信息对应的语音信息进行声学特征提取,得到所述语音信息的声学特征,所述声学特征至少表示所述语音信息中每个字符的发音情况;基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签。该方法综合考虑文本语义特征和声学特征,在预测韵律标签时依据了更多的信息,提高了标注的韵律标签的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种韵律标注方法、装置、计算机设备及存储介质。
背景技术
随着计算机技术和语音合成技术的发展,基于语音合成模型对文本进行语音合成的方式越来越普遍,为了提高所合成语音的播放效果,在训练该语音合成模型时,需要准确地标注语音信息中每个字符的韵律标签。
目前,通常是直接对语音信息进行韵律预测,得到该语音信息中每个字符的韵律标签的。但是由于语音信息仅能够反映字符在发音上的特征,在预测韵律标签时所能依据的信息较少,从而导致韵律标签的准确性较差。
发明内容
本申请实施例提供了一种韵律标注方法、装置、计算机设备及存储介质,减提高了标注的韵律标签的准确性。所述技术方案如下:
一方面,提供了一种韵律标注方法,所述方法包括:
对文本信息进行语义特征提取,得到所述文本信息的文本语义特征,所述文本语义特征表示所述文本信息中相邻的每两个字符之间的关联关系;
对所述文本信息对应的语音信息进行声学特征提取,得到所述语音信息的声学特征,所述声学特征至少表示所述语音信息中每个字符的发音情况;
基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签。
另一方面,提供了一种韵律标注装置,所述装置包括:
语义特征获取模块,用于对文本信息进行语义特征提取,得到所述文本信息的文本语义特征,所述文本语义特征表示所述文本信息中相邻的每两个字符之间的关联关系;
声学特征获取模块,用于对所述文本信息对应的语音信息进行声学特征提取,得到所述语音信息的声学特征,所述声学特征至少表示所述语音信息中每个字符的发音情况;
韵律标注模块,用于基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签。
另一方面,提供了一种计算机设备,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如上述方面所述的韵律标注方法中所执行的操作。
另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如上述方面所述的韵律标注方法中所执行的操作。
再一方面,提供了一种计算机程序产品,所述计算机程序产品中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现上述实施例的韵律标注方法中所执行的操作。
本申请实施例提供的韵律标注方法、装置、计算机设备及存储介质,在为语音信息中的每个字符标注韵律标签时,不仅考虑该语音信息本身的声学特征,还会考虑该语音信息对应的文本信息的文本语义特征,该文本语义特征能够反映相邻的每两个字符之间的关联关系,因此,在预测韵律标签时能够依据更多的信息,从而提高了标注的韵律标签的准确性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请实施例的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种韵律标注方法的流程图;
图2是本申请实施例提供的一种韵律标注方法的流程图;
图3是本申请实施例提供的一种韵律标注结果的示意图;
图4是本申请实施例提供的一种韵律标注模型的示意图;
图5是本申请实施例提供的一种韵律标注方法的流程图;
图6是本申请实施例提供的一种韵律标注模型的示意图;
图7是本申请实施例提供的一种韵律标注装置的结构示意图;
图8是本申请实施例提供的一种终端的结构示意图;
图9是本申请实施例提供的一种服务器的结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施方式作进一步地详细描述。
可以理解,本申请所使用的术语“第一”、“第二”、“第三”、“第四”、“第五”、“第六”等可在本文中用于描述各种概念,但除非特别说明,这些概念不受这些术语限制。这些术语仅用于将一个概念与另一个概念区分。举例来说,在不脱离本申请的范围的情况下,可以将第一处理结果称为第二处理结果,将第二处理结果称为第一处理结果。
本申请所使用的术语“每个”、“多个”、“至少一个”、“任一”等,至少一个包括一个、两个或两个以上,多个包括两个或两个以上,而每个是指对应的多个中的每一个,任一是指多个中的任意一个。举例来说,多个对象包括3个对象,而每个是指这3个对象中的每一个对象,任一是指这3个对象中的任意一个,可以是第一个,可以是第二个,也可以是第三个。
本申请实施例提供了一种韵律标注方法,该方法的执行主体为计算机设备,计算机设备获取文本信息的文本语义特征和该文本信息对应的语音信息的声学特征,基于该文本语义特征和声学特征,标注语音信息中的每个字符的韵律标签,以实现韵律标注。
可选地,该计算机设备为终端,例如终端为手机、台式电脑、笔记本电脑、平板电脑、智能电视、智能音箱、车载终端、智能机器人等多种类型的终端。或者,该计算机设备为服务器,该服务器可以为一台服务器,或者由若干台服务器组成的服务器集群,或者是一个云计算服务器中心。
采用本申请实施例提供的韵律标注方法,得到标注有韵律标签的语音信息后,能够基于该语音信息训练语音合成模型,之后能够将训练得到的语音合成模型应用于多种语音合成场景下,例如应用于语音信箱、电话银行、车站广播系统、电梯广播系统、语音通知系统、医院叫号系统等,本申请实施例对语音合成场景不做限定。
图1是本申请实施例提供的一种韵律标注方法的流程图。本申请实施例的执行主体为计算机设备,参见图1,该方法包括:
101、计算机设备对文本信息进行语义特征提取,得到该文本信息的文本语义特征。
其中,该文本信息为任一文本信息,文本语义特征表示该文本信息中相邻的每两个字符之间的关联关系,也即是该文本语义特征能够表示该文本信息的含义。
102、计算机设备对文本信息对应的语音信息进行声学特征提取,得到该语音信息的声学特征。
其中,语音信息和文本信息之间相对应,即该语音信息的内容与该文本信息的内容一致,语音信息的声学特征至少表示该语音信息中每个字符的发音情况。可选地,该声学特征包括音强特征、音高特征、发音时长特征、静音时长特征或拼音特征中的至少一项。
103、计算机设备基于文本语义特征和声学特征,标注语音信息中的每个字符的韵律标签。
在标注韵律标签时,声学特征能够反映语音信息在发音上的一些特征,文本语义特征能够反映对应的文本信息在内容语义上的一些特征,综合考虑这两种特征,得到的韵律标签更加准确。其中,韵律标签至少指示一个字符与该字符的下一个字符之间是否有停顿,即表示该字符的韵律边界。
本申请实施例提供的韵律标注方法,在为语音信息中的每个字符标注韵律标签时,不仅考虑该语音信息本身的声学特征,还会考虑该语音信息对应的文本信息的文本语义特征,该文本语义特征能够反映相邻的每两个字符之间的关联关系,因此,在预测韵律标签时能够依据更多的信息,从而提高了标注的韵律标签的准确性。
图2是本申请实施例提供的一种韵律标注方法的流程图。本申请实施例的执行主体为计算机设备,参见图2,该方法包括:
201、计算机设备获取文本信息和该文本信息对应的语音信息。
其中,文本信息和语音信息相对应,即文本信息中的每个字符分别与该语音信息中的每个字符对应。
在一种可能实现方式中,该文本信息和该语音信息为其他设备发送给该计算机设备的;或者,该文本信息和该语音信息为计算机设备采集得到的,可选地,计算机设备为用户提供文本信息,用户基于该文本信息,发出该文本信息对应的语音信息,计算机设备采集该语音信息,从而得到文本信息和语音信息。或者计算机设备采集用户发出的语音信息,然后基于该语音信息识别对应的文本信息,或者用户基于该语音信息输入对应的文本信息。本申请实施例对该文本信息和语音信息的获取方式不做限定。
需要说明的是,本申请实施例对文本信息和语音信息的内容、字符数量等不做限制。
202、计算机设备对文本信息进行语义特征提取,得到该文本信息的文本语义特征。
其中,文本语义特征表示文本信息中相邻的每两个字符之间的关联关系,即该文本语义特征能够表示该文本信息的含义。
在一种可能实现方式中,计算机设备分别对文本信息中的多个字符进行语义特征提取,得到该文本信息中的每个字符的字符语义特征。对于任一字符,在提取该字符的字符语义特征时,不仅提取反映该字符本身的含义的特征,还会联系该字符在文本信息中的上下文,提取反映该字符在整个文本信息中的含义的特征,因此字符语义特征表示字符本身的语义以及该字符在文本信息中的语义。之后对该多个字符的字符语义特征进行融合,得到文本语义特征。
可选地,计算机设备对多个字符的字符语义特征进行拼接,得到文本语义特征;或者,计算机设备基于多个字符在文本信息中的重要程度,对该多个字符的字符语义特征进行加权处理,得到该文本语义特征。
需要说明的是,本申请实施例仅是以上述提取文本语义特征的实施方式为例进行说明,在另一实施例中,计算机设备能够采用其他方式获取文本语义特征,本申请实施例对提取文本语义特征的具体方式不做限制。
203、计算机设备对语音信息进行声学特征提取,得到该语音信息的声学特征。
其中,声学特征表示语音信息的发音情况,该声学特征能够反映语音信息在音高、音强、发音时长等方面的特征。
在一种可能实现方式中,由于整个语音信息中不仅包含每个字符的音节片段,还包括除音节片段之外的一些静音片段,而这些静音片段会影响提取的声学特征的准确性,因此计算机设备在对语音信息进行声学特征提取时,先识别语音信息中的每个字符对应的音节片段,该音节片段中包括对应的字符的发音,不包括除该发音之外的静音或其他噪声,然后基于每个音节片段进行声学特征提取,得到每个字符的声学特征,对多个字符的声学特征进行拼接,得到该语音信息的声学特征。
本申请实施例中,声学特征包括音强特征、音高特征、发音时长特征、静音时长特征或拼音特征中的至少一项。下面分别针对每一项的提取过程进行说明:
(1)提取音强特征:
计算机设备对每个音节片段进行音强特征提取,得到每个字符的音强特征。其中,音强是指声音的大小。
在一种可能实现方式中,由于同一个字符在发音过程中音高会发生变化,且不同字符的发音时长也存在差异,为了避免发音时长不同,对提取的音强特征产生影响。针对每个音节片段,将该音节片段划分为多个子片段,每两个子片段对应的时长相同,然后分别对多个子片段进行音强特征提取,得到每个子片段对应的音强子特征,对多个音强子特征求均值,得到音节片段对应的字符的音强特征。即通过求均值的方式,使每个字符对应的音强特征都对应于同一时长。
可选地,基于第一参考时长,将音节片段划分为多个子片段,使每个子片段的时长为该第一参考时长。
可选地,针对多个音节片段,该多个音节片段在划分子片段时,所依据的第一参考时长可以相同,也可以不同。
(2)提取音高特征:
计算机设备对每个音节片段进行音高特征提取,得到每个字符的音高特征。其中,音高是指音调的高低。
在一种可能实现方式中,由于同一个字符在发音过程中音高会发生变化,且不同字符的发音时长也存在差异,为了避免发音时长不同,对提取的音高特征产生影响。针对每个音节片段,将该音节片段划分为多个子片段,每两个子片段对应的时长相同,然后分别对多个子片段进行音高特征提取,得到每个子片段对应的音高子特征,对多个音高子特征求均值,得到音节片段对应的字符的音高特征。即通过求均值的方式,使每个字符对应的音高特征都对应于同一时长。
可选地,基于第二参考时长,将音节片段划分为多个子片段,使每个子片段的时长为该第二参考时长,该第二参考时长与上述第一参考时长可以相同,也可以不同。
可选地,针对多个音节片段,该多个音节片段在划分子片段时,所依据的第二参考时长可以相同,也可以不同。
(3)提取发音时长特征:
计算机设备基于每个音节片段的时长进行特征提取,得到每个字符的发音时长特征。该发音时长特征表示字符发音的时长。
(4)提取静音时长特征:
计算机设备基于相邻的每两个音节片段之间的间隔时长进行特征提取,得到每两个音节片段中第一个音频片段对应的字符的静音时长特征。该静音时长特征表示字符与相邻的下一个字符之间间隔的时长。
可选地,计算机设备基于语音信息,确定每两个音节片段之间的静音片段,该静音片段的时长即为这每两个音节片段之间的间隔时长。在每两个音节片段之间不存在静音片段的情况下,即可确定这两个音节片段之间的间隔时长为0。
(5)提取拼音特征:
计算机设备基于每个音节片段进行拼音特征提取,得到每个字符的拼音特征。由于存在多音字的情况,直接基于文本信息提取字符的拼音特征的情况下,可能导致确定的拼音特征不是该字符在该文本信息中的发音,因此直接基于音节片段中字符的发音,确定字符的拼音特征。
需要说明的是,本申请实施例仅是以上述几种声学特征为例进行说明,在另一实施例中,还能够包括其他声学特征,本申请对此不做限制。
在一种可能实现方式中,计算机设备在提取声学特征之前,为了避免该语音信息中的噪声对声学特征提取产生影响,先对语音信息进行去噪,对去噪后的语音信息进行声学特征提取。例如,采用自适应滤波器、减谱法或其他去噪算法对语音信息进行去噪,本申请实施例对去噪方式不做限制。
需要说明的是,本申请实施例仅是以先执行202,再执行步骤203为例进行说明,在另一实施例中,计算机设备能够先执行步骤203,再执行步骤202,或者同时执行步骤202和步骤203,本申请实施例对步骤执行的先后顺序不做限定。
204、计算机设备基于文本信息,确定该文本信息的标点信息。
在一段语音信息中包括多个语句的情况下,语句之间的停顿也是很重要,为了识别相邻的两语句之间的停顿,计算机设备获取文本信息中的标点信息,该标点信息包括标点在文本信息中所在的位置以及标点类型。其中,标点所在的位置可以采用位于该标点之前或位于该标点之后的字符确定,标点类型包括逗号、句号、冒号、顿号等。
205、计算机设备基于文本语义特征、声学特征和标点信息,标注语音信息中的每个字符的韵律标签。
计算机设备考虑文本语义特征、声学特征和标点信息,对该语音信息中的每个字符标注韵律标签。
可选地,韵律标签包括第一标签和第二标签,该第一标签指示字符与该字符的下一个字符之间没有停顿,第二标签指示字符与该字符的下一个字符之间存在停顿,以及该字符与该字符的一个字符之间的停顿时长。
可选地,按照停顿时长,将第二标签进一步划分为多个子标签。例如,停顿时长位于0.05秒-0.1秒之间对应同一子标签,停顿时长位于0.11秒-0.15秒之间对应同一子标签。例如,采用0、1、2、3和4来表示韵律标签,0表示第一标签,1、2、3和4表示第二标签,且1、2、3和4对应的停顿时长越来越长。
例如,参见图3,针对文本信息“一样可以交作业,和进行考试。”,为该文本信息对应的语音信息中的每个字符标注了对应的韵律标签。从图3中可以看出,在相邻的两个字符可以构成一个词语的情况下,这两个字符之间的韵律标签为“0”,即这两个字符之间没有停顿,两个词语之间的韵律标签不为“0”,即表示这两个词语之间有停顿,两个语句之间有一个“,”,此时该“,”之前的字符“业”对应的韵律标签为“3”,“业”之后的停顿时长要大于相邻的两个词语之间的停顿时长,即标点的存在对韵律标签存在一定的影响。
又例如,参见下述示例给出的确定韵律标签时,所依据的除文本语义特征之外的各项特征:
text:[一,样,可,以,交,作,业,和,进,行,考,试]
Pinyin:[yi,yang,ke,yi,jiao,zuo,ye,he,jin,xing,kao,shi]
Phons:[[y,i],[y,ang],[k,e],[y,i],[j,iao],...]
Picth:[[220,221,225,226],[234,256,...],...]
Energy:[[20,21,25,26],[34,56,...],...]
Dur:[2,3,21,31,...]
Sil_dur:[0,0,0,...,3]
Punc:[,,,,,,,,,,,,。]
Prosody:[0,1,0,2,0,0,3,1,0,1,0,4]
其中,text表示语音信息对应的文本信息,Pinyin表示字符对应的拼音,Phons表示字符的声韵母,Picth表示字符的音高特征(220、221、225、226表示“一”对应的子片段的音高子特征),Energy表示字符的音强特征(20、21、25、26表示“一”对应的子片段的音强子特征),Dur表示字符的发音时长特征,Sil_dur表示字符之后的静音时长特征,Punc表示标点信息,Prosody表示韵律标签。
需要说明的一点是,步骤204属于可选步骤,在另一实施例中可以不执行步骤204,那么,在不执行步骤204的情况下,计算机设备直接基于文本语义特征和声学特征,标注语音信息中的每个字符的韵律标签。
上述实施例介绍了标注韵律标签的过程,在一种可能实现方式中,在为语音信息中的每个字符标注韵律标签之后,能够将上述文本信息、语音信息和语音信息中的每个字符的韵律标签,确定为语音合成模型的训练数据,调用语音合成模型,对该文本信息进行语音合成,得到合成语音信息,基于该合成语音信息、语音信息和语音信息中的每个字符的韵律标签,训练语音合成模型。即对比合成语音信息中每个字符的停顿情况和语音信息中每个字符的韵律标签,确定合成语音信息中的每个字符是否符合对应的韵律标签,基于对比结果调整语音合成模型中的模型参数。
需要说明的另一点是,本申请实施例仅是以标注语音信息中的每个字符的韵律标签为例进行说明,在另一实施例中,计算机设备还能够标注文本信息中的每个字符的韵律标签。
本申请实施例提供的韵律标注方法,在为语音信息中的每个字符标注韵律标签时,不仅考虑该语音信息本身的声学特征,还会考虑该语音信息对应的文本信息的文本语义特征,该文本语义特征能够反映相邻的每两个字符之间的关联关系,因此,在预测韵律标签时能够依据更多的信息,从而提高了标注的韵律标签的准确性。并且,还考虑了标点信息,能够进一步提高标注的韵律标签的准确性。
并且,本申请实施例中,考虑了音高特征、音强特征、发音时长特征、静音时长特征、拼音特征等多项声学特征,在标注韵律标签时,有多项声学特征作为依据,进一步提高了标注的韵律标签的准确性。
并且,与相关技术中人工标注韵律标签的方式相比,本申请实施例提供的韵律标注方式,不会受到标注人员个体差异的影响,能够采用统一的标注标准进行标注,提高了韵律标注的稳定性。
在另一实施例中,计算机设备能够通过调用韵律标注模型来标注韵律标签。参见图4,该韵律标注模型包括文本处理网络401、语音处理网络402和韵律标注网络403。其中,文本处理网络401和语音处理网络402分别与韵律标注网络403连接。
图5是本申请实施例提供的一种韵律标注方法的流程图,本申请实施例的执行主体为计算机设备,参见图5,该方法包括:
501、计算机设备调用文本处理网络,对文本信息进行语义特征提取,得到文本信息的文本语义特征。
计算机设备将文本信息输入至文本处理网络,得到文本语义特征。
在一种可能实现方式中,文本处理网络为BERT(Bidirectional EncoderRepresentations from Transformers,基于变换器的双向编码器表征)网络、该BERT网络包含字符对应的预训练信息,由于BERT网络采用了多层Transformer(变换器)对文本进行双向处理,能够准确地学习到文本信息中多个字符之间的上下文关系,且由于该BERT网络具备识别文本信息中的每个字符的功能,因此后续训练过程中,无需采用大量的样本数据训练该BERT网络。或者,文本处理网络为其他具备提取语义特征的功能的网络。
502、计算机设备调用语音处理网络,对语音信息进行声学特征提取,得到语音信息的声学特征。
在一种可能实现方式中,由于需要提取多项不同类型的声学特征,且该多项不同类型的声学特征提取方式存在差异,为了能够准确提取每项声学特征。该语音处理网络包括多个子网络,每个子网络分别用于提取一项声学特征。
可选地,计算机设备调用第一子网络,对每个该音节片段进行音强特征提取,得到每个该字符的音强特征;调用第二子网络,对每个该音节片段进行音高特征提取,得到每个该字符的音高特征;调用第三子网络,基于每个该音节片段的时长进行特征提取,得到每个该字符的发音时长特征;调用第四子网络,基于相邻的每两个该音节片段之间的间隔时长进行特征提取,得到每两个该音节片段中第一个音频片段对应的字符的静音时长特征;调用第五子网络,基于每个该音节片段进行拼音特征提取,得到每个该字符的拼音特征。
503、计算机设备调用韵律标注网络,基于文本语义特征和声学特征,标注语音信息中的每个字符的韵律标签。
计算机设备将获取到的文本语义特征和声学特征分别输入至该韵律标注网络,基于该韵律标注网络预测语音信息中每个字符的韵律标签,为每个字符标注对应的韵律标签。
在一种可能实现方式中,韵律标注网络包括识别网络和标注网络,该识别网络用于识别文本语义特征和声学特征,确定每个字符对应的韵律标签,该标注网络用于为每个字符标注对应的韵律标签。可选地,识别网络为LSTM(Long Short Term Memory,长短时记忆)网络、Bi-LSTM(Bidirectional Long Short Term Memory,双向长短时记忆)网络、HMM(Hidden Markov Model,隐马尔可夫模型)或其他网络。
例如,参见图6,通过文本处理网络,对文本信息“卡尔普陪外孙玩滑梯”进行语义特征提取,得到文本语义特征,通过语音处理网络,对语音信息进行处理,得到发音时长特征、音高特征、音强特征等声学特征,将文本语义特征和每个字符的声学特征输入至Bi-LSTM网络,针对多个字符,分别通过前向长短时记忆层(Forward-LSTM)和后向长短时记忆层(Backward-LSTM)进行处理,得到每个字符的韵律标签。
需要说明的是,本申请实施例仅是介绍了使用该韵律标注模型的过程,在另一实施例中,在使用该韵律标注模型之前,需要先训练该韵律标注模型,即计算机设备获取样本文本信息、样本语音信息和该样本语音信息中的每个字符的样本韵律标签,将样本文本信息和样本语音信息输入至韵律标注模型,得到该每个字符的预测韵律标签,基于多个预测韵律标签和样本韵律标签之间的差异,调整该韵律标注模型的模型参数。对韵律标注模型进行多次迭代训练,直至得到可使用的韵律标注模型。
本申请实施例提供的韵律标注方法,调用韵律标注模型为语音信息中的每个字符标注韵律标签时,不仅考虑该语音信息本身的声学特征,还会考虑该语音信息对应的文本信息的文本语义特征,该文本语义特征能够反映相邻的每两个字符之间的关联关系,因此,在预测韵律标签时能够依据更多的信息,从而提高了标注的韵律标签的准确性。
图7是本申请实施例提供的一种韵律标注装置的结构示意图。参见图7,该装置包括:
语义特征获取模块701,用于对文本信息进行语义特征提取,得到该文本信息的文本语义特征,该文本语义特征表示该文本信息中相邻的每两个字符之间的关联关系;
声学特征获取模块702,用于对该文本信息对应的语音信息进行声学特征提取,得到该语音信息的声学特征,该声学特征至少表示该语音信息中每个字符的发音情况;
韵律标注模块703,用于基于该文本语义特征和该声学特征,标注该语音信息中的每个字符的韵律标签。
本申请实施例提供的装置,在为语音信息中的每个字符标注韵律标签时,不仅考虑该语音信息本身的声学特征,还会考虑该语音信息对应的文本信息的文本语义特征,该文本语义特征能够反映相邻的每两个字符之间的关联关系,因此,在预测韵律标签时能够依据更多的信息,从而提高了标注的韵律标签的准确性。
在一种可能实现方式中,声学特征获取模块702,包括:
片段识别单元,用于识别该语音信息中的每个字符对应的音节片段;
声学特征获取单元,用于基于每个音节片段进行声学特征提取,得到每个该字符的声学特征;
声学特征拼接单元,用于对多个该字符的声学特征进行拼接,得到该语音信息的声学特征。
在一种可能实现方式中,该声学特征获取单元,用于:
对每个该音节片段进行音强特征提取,得到每个该字符的音强特征;
对每个该音节片段进行音高特征提取,得到每个该字符的音高特征;
基于每个该音节片段的时长进行特征提取,得到每个该字符的发音时长特征;
基于相邻的每两个该音节片段之间的间隔时长进行特征提取,得到每两个该音节片段中第一个音频片段对应的字符的静音时长特征;
基于每个该音节片段进行拼音特征提取,得到每个该字符的拼音特征。
在一种可能实现方式中,该声学特征获取单元,用于:
对于每个该音节片段:
将该音节片段划分为多个子片段,每两个子片段对应的时长相同;
分别对多个该子片段进行音强特征提取,得到每个该子片段对应的音强子特征;
对多个该音强子特征求均值,得到该音节片段对应的该字符的音强特征。
在一种可能实现方式中,该声学特征获取单元,用于:
对于每个该音节片段:
将所述音节片段划分为多个子片段,每两个子片段对应的时长相同;
分别对多个该子片段进行音高特征提取,得到每个该子片段对应的音高子特征;
对多个该音高子特征求均值,得到该音节片段对应的该字符的音高特征。
在一种可能实现方式中,该装置还包括:
标点信息获取模块,用于基于该文本信息,确定该文本信息的标点信息;
该韵律标注模块,用于:
基于该文本语义特征、该声学特征和该标点信息,标注该语音信息中的每个字符的韵律标签。
在一种可能实现方式中,该语义特征获取模块,用于:
分别对该文本信息中的多个字符进行语义特征提取,得到该文本信息中的每个字符的字符语义特征;
对该多个字符的字符语义特征进行融合,得到该文本语义特征。
在一种可能实现方式中,韵律标注模型包括文本处理网络、语音处理网络和韵律标注网络,
该文本处理网络用于对该文本信息进行语义特征提取,得到该文本语义特征;
该语音处理网络用于对该语音信息进行声学特征提取,得到该语音信息的声学特征;
该韵律标注网络用于基于该文本语义特征和该声学特征,标注该语音信息中的每个字符的韵律标签。
在一种可能实现方式中,该装置还包括:
训练数据确定模块,用于将该文本信息、该语音信息和该语音信息中的每个字符的韵律标签,确定为语音合成模型的训练数据;
语音合成模块,用于调用该语音合成模型,对该文本信息进行语音合成,得到合成语音信息;
模型训练模块,用于基于该合成语音信息、该语音信息和该语音信息中的每个字符的韵律标签,训练该语音合成模型。
在一种可能实现方式中,该韵律标注模块,还用于基于该文本语义特征和该声学特征,标注该文本信息中的每个字符的韵律标签。
在一种可能实现方式中,该韵律标签包括第一标签和第二标签,该第一标签指示该字符与该字符的下一个字符之间没有停顿,该第二标签指示该字符与该字符的下一个字符之间存在停顿,以及该字符与该字符的下一个字符之间的停顿时长。
本申请实施例还提供了一种计算机设备,该计算机设备包括处理器和存储器,存储器中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现如上述实施例的韵律标注方法中所执行的操作。
可选地,计算机设备被提供为终端。图8是本申请实施例提供的一种终端的结构示意图。该终端800可以是便携式移动终端,比如:智能手机、平板电脑、MP3播放器(MovingPicture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端800还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
终端800包括有:处理器801和存储器802。
处理器801可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器801可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器801也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器801可以集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器801还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器802可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器802还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器802中的非暂态的计算机可读存储介质用于存储至少一个程序代码,该至少一个程序代码用于被处理器801所执行以实现本申请中方法实施例提供的韵律标注方法。
在一些实施例中,终端800还可选包括有:外围设备接口803和至少一个外围设备。处理器801、存储器802和外围设备接口803之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口803相连。具体地,外围设备包括:射频电路804、显示屏805、摄像头组件806、音频电路807、定位组件808和电源809中的至少一种。
外围设备接口803可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器801和存储器802。在一些实施例中,处理器801、存储器802和外围设备接口803被集成在同一芯片或电路板上;在一些其他实施例中,处理器801、存储器802和外围设备接口803中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路804用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路804通过电磁信号与通信网络以及其他通信设备进行通信。射频电路804将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路804包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路804可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及20G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路804还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏805用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏805是触摸显示屏时,显示屏805还具有采集在显示屏805的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器801进行处理。此时,显示屏805还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏805可以为一个,设置在终端800的前面板;在另一些实施例中,显示屏805可以为至少两个,分别设置在终端800的不同表面或呈折叠设计;在另一些实施例中,显示屏805可以是柔性显示屏,设置在终端800的弯曲表面上或折叠面上。甚至,显示屏805还可以设置成非矩形的不规则图形,也即异形屏。显示屏805可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件806用于采集图像或视频。可选地,摄像头组件806包括前置摄像头和后置摄像头。前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件806还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路807可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器801进行处理,或者输入至射频电路804以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端800的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器801或射频电路804的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路807还可以包括耳机插孔。
定位组件808用于定位终端800的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件808可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统或俄罗斯的格雷纳斯定位系统以及欧盟的伽利略定位系统。
电源809用于为终端800中的各个组件进行供电。电源809可以是交流电、直流电、一次性电池或可充电电池。当电源809包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端800还包括有一个或多个传感器180。该一个或多个传感器180包括但不限于:加速度传感器811、陀螺仪传感器812、压力传感器813、指纹传感器814、光学传感器815以及接近传感器816。
加速度传感器811可以检测以终端80建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器811可以用于检测重力加速度在三个坐标轴上的分量。处理器801可以根据加速度传感器811采集的重力加速度信号,控制显示屏805以横向视图或纵向视图进行用户界面的显示。加速度传感器811还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器812可以检测终端800的机体方向及转动角度,陀螺仪传感器812可以与加速度传感器811协同采集用户对终端800的3D动作。处理器801根据陀螺仪传感器812采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器813可以设置在终端800的侧边框和/或显示屏802的下层。当压力传感器813设置在终端800的侧边框时,可以检测用户对终端800的握持信号,由处理器801根据压力传感器813采集的握持信号进行左右手识别或快捷操作。当压力传感器813设置在显示屏802的下层时,由处理器801根据用户对显示屏805的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器814用于采集用户的指纹,由处理器801根据指纹传感器814采集到的指纹识别用户的身份,或者,由指纹传感器814根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器801授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器814可以被设置在终端800的正面、背面或侧面。当终端800上设置有物理按键或厂商Logo时,指纹传感器814可以与物理按键或厂商Logo集成在一起。
光学传感器815用于采集环境光强度。在一个实施例中,处理器801可以根据光学传感器815采集的环境光强度,控制显示屏805的显示亮度。具体地,当环境光强度较高时,调高显示屏805的显示亮度;当环境光强度较低时,调低显示屏805的显示亮度。在另一个实施例中,处理器801还可以根据光学传感器815采集的环境光强度,动态调整摄像头组件806的拍摄参数。
接近传感器816,也称距离传感器,设置在终端800的前面板。接近传感器816用于采集用户与终端800的正面之间的距离。在一个实施例中,当接近传感器816检测到用户与终端800的正面之间的距离逐渐变小时,由处理器801控制显示屏805从亮屏状态切换为息屏状态;当接近传感器816检测到用户与终端800的正面之间的距离逐渐变大时,由处理器801控制显示屏805从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图8中示出的结构并不构成对终端800的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
可选地,计算机设备被提供为服务器。图9是根据一示例性实施例示出的一种服务器的结构示意图,该服务器900可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上处理器(Central Processing Units,CPU)901和一个或一个以上的存储器902,其中,存储器902中存储有至少一条程序代码,至少一条程序代码由处理器901加载并执行以实现上述各个方法实施例提供的方法。当然,该服务器还可以具有有线或无线网络接口、键盘以及输入输出接口等部件,以便进行输入输出,该服务器还可以包括其他用于实现设备功能的部件,在此不做赘述。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述实施例的韵律标注方法中所执行的操作。
本申请实施例还提供了一种计算机程序产品,该计算机程序产品中存储有至少一条程序代码,该至少一条程序代码由处理器加载并执行,以实现上述实施例的韵律标注方法中所执行的操作。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,该程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上仅为本申请实施例的可选实施例,并不用以限制本申请实施例,凡在本申请实施例的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。
Claims (14)
1.一种韵律标注方法,其特征在于,所述方法包括:
对文本信息进行语义特征提取,得到所述文本信息的文本语义特征,所述文本语义特征表示所述文本信息中相邻的每两个字符之间的关联关系;
对所述文本信息对应的语音信息进行声学特征提取,得到所述语音信息的声学特征,所述声学特征至少表示所述语音信息中每个字符的发音情况;
基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签。
2.根据权利要求1所述的方法,其特征在于,所述对所述文本信息对应的语音信息进行声学特征提取,得到所述语音信息的声学特征,包括:
识别所述语音信息中的每个字符对应的音节片段;
基于每个音节片段进行声学特征提取,得到每个所述字符的声学特征;
对多个所述字符的声学特征进行拼接,得到所述语音信息的声学特征。
3.根据权利要求2所述的方法,其特征在于,所述基于每个音节片段进行声学特征提取,得到每个所述字符的声学特征,包括以下至少一项:
对每个所述音节片段进行音强特征提取,得到每个所述字符的音强特征;
对每个所述音节片段进行音高特征提取,得到每个所述字符的音高特征;
基于每个所述音节片段的时长进行特征提取,得到每个所述字符的发音时长特征;
基于相邻的每两个所述音节片段之间的间隔时长进行特征提取,得到每两个所述音节片段中第一个音频片段对应的字符的静音时长特征;
基于每个所述音节片段进行拼音特征提取,得到每个所述字符的拼音特征。
4.根据权利要求3所述的方法,其特征在于,所述对每个所述音节片段进行音强特征提取,得到每个所述字符的音强特征,包括:
对于每个所述音节片段:
将所述音节片段划分为多个子片段,每两个子片段对应的时长相同;
分别对多个所述子片段进行音强特征提取,得到每个所述子片段对应的音强子特征;
对多个所述音强子特征求均值,得到所述音节片段对应的所述字符的音强特征。
5.根据权利要求3所述的方法,其特征在于,所述对每个所述音节片段进行音高特征提取,得到每个所述字符的音高特征,包括:
对于每个所述音节片段:
将所述音节片段划分为多个子片段,每两个子片段对应的时长相同;
分别对多个所述子片段进行音高特征提取,得到每个所述子片段对应的音高子特征;
对多个所述音高子特征求均值,得到所述音节片段对应的所述字符的音高特征。
6.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于所述文本信息,确定所述文本信息的标点信息;
所述基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签,包括:
基于所述文本语义特征、所述声学特征和所述标点信息,标注所述语音信息中的每个字符的韵律标签。
7.根据权利要求1所述的方法,其特征在于,所述对文本信息进行语义特征提取,得到所述文本信息的文本语义特征,包括:
分别对所述文本信息中的多个字符进行语义特征提取,得到所述文本信息中的每个字符的字符语义特征;
对所述多个字符的字符语义特征进行融合,得到所述文本语义特征。
8.根据权利要求1所述的方法,其特征在于,韵律标注模型包括文本处理网络、语音处理网络和韵律标注网络,
所述文本处理网络用于对所述文本信息进行语义特征提取,得到所述文本语义特征;
所述语音处理网络用于对所述语音信息进行声学特征提取,得到所述语音信息的声学特征;
所述韵律标注网络用于基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签。
9.根据权利要求1所述的方法,其特征在于,所述基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签之后,所述方法还包括:
将所述文本信息、所述语音信息和所述语音信息中的每个字符的韵律标签,确定为语音合成模型的训练数据;
调用所述语音合成模型,对所述文本信息进行语音合成,得到合成语音信息;
基于所述合成语音信息、所述语音信息和所述语音信息中的每个字符的韵律标签,训练所述语音合成模型。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
基于所述文本语义特征和所述声学特征,标注所述文本信息中的每个字符的韵律标签。
11.根据权利要求1-10任一项所述的方法,其特征在于,所述韵律标签包括第一标签和第二标签,所述第一标签指示所述字符与所述字符的下一个字符之间没有停顿,所述第二标签指示所述字符与所述字符的下一个字符之间存在停顿,以及所述字符与所述字符的下一个字符之间的停顿时长。
12.一种韵律标注装置,其特征在于,所述装置包括:
语义特征获取模块,用于对文本信息进行语义特征提取,得到所述文本信息的文本语义特征,所述文本语义特征表示所述文本信息中相邻的每两个字符之间的关联关系;
声学特征获取模块,用于对所述文本信息对应的语音信息进行声学特征提取,得到所述语音信息的声学特征,所述声学特征至少表示所述语音信息中每个字符的发音情况;
韵律标注模块,用于基于所述文本语义特征和所述声学特征,标注所述语音信息中的每个字符的韵律标签。
13.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述存储器中存储有至少一条程序代码,所述至少一条程序代码由所述处理器加载并执行,以实现如权利要求1至11任一权利要求所述的韵律标注方法中所执行的操作。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有至少一条程序代码,所述至少一条程序代码由处理器加载并执行,以实现如权利要求1至11任一权利要求所述的韵律标注方法中所执行的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111642835.3A CN114360494A (zh) | 2021-12-29 | 2021-12-29 | 韵律标注方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111642835.3A CN114360494A (zh) | 2021-12-29 | 2021-12-29 | 韵律标注方法、装置、计算机设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114360494A true CN114360494A (zh) | 2022-04-15 |
Family
ID=81102909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111642835.3A Pending CN114360494A (zh) | 2021-12-29 | 2021-12-29 | 韵律标注方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114360494A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117012178A (zh) * | 2023-07-31 | 2023-11-07 | 支付宝(杭州)信息技术有限公司 | 韵律标注数据生成方法及装置 |
-
2021
- 2021-12-29 CN CN202111642835.3A patent/CN114360494A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117012178A (zh) * | 2023-07-31 | 2023-11-07 | 支付宝(杭州)信息技术有限公司 | 韵律标注数据生成方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110933330A (zh) | 视频配音方法、装置、计算机设备及计算机可读存储介质 | |
CN111564152B (zh) | 语音转换方法、装置、电子设备及存储介质 | |
CN110322760B (zh) | 语音数据生成方法、装置、终端及存储介质 | |
CN111696532B (zh) | 语音识别方法、装置、电子设备以及存储介质 | |
CN111105788B (zh) | 敏感词分数检测方法、装置、电子设备及存储介质 | |
CN112116904B (zh) | 语音转换方法、装置、设备及存储介质 | |
CN111524501A (zh) | 语音播放方法、装置、计算机设备及计算机可读存储介质 | |
CN112261491B (zh) | 视频时序标注方法、装置、电子设备及存储介质 | |
CN111370025A (zh) | 音频识别方法、装置及计算机存储介质 | |
CN110992927A (zh) | 音频生成方法、装置、计算机可读存储介质及计算设备 | |
CN111354378B (zh) | 语音端点检测方法、装置、设备及计算机存储介质 | |
CN111081277B (zh) | 音频测评的方法、装置、设备及存储介质 | |
CN110677713B (zh) | 视频图像处理方法及装置、存储介质 | |
CN111613213A (zh) | 音频分类的方法、装置、设备以及存储介质 | |
CN113362836B (zh) | 训练声码器方法、终端及存储介质 | |
CN110991445A (zh) | 竖排文字识别方法、装置、设备及介质 | |
CN113744736A (zh) | 命令词识别方法、装置、电子设备及存储介质 | |
CN111753606A (zh) | 一种智能模型的升级方法及装置 | |
CN112116908B (zh) | 唤醒音频确定方法、装置、设备及存储介质 | |
CN114360494A (zh) | 韵律标注方法、装置、计算机设备及存储介质 | |
CN108763521B (zh) | 存储歌词注音的方法和装置 | |
CN110992954A (zh) | 语音识别的方法、装置、设备及存储介质 | |
CN113593521B (zh) | 语音合成方法、装置、设备及可读存储介质 | |
CN111063372B (zh) | 确定音高特征的方法、装置、设备及存储介质 | |
CN114299997A (zh) | 音频数据处理方法、装置、电子设备、存储介质及产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |