CN113903325A - 文本转3d音频的方法及装置 - Google Patents
文本转3d音频的方法及装置 Download PDFInfo
- Publication number
- CN113903325A CN113903325A CN202110604193.1A CN202110604193A CN113903325A CN 113903325 A CN113903325 A CN 113903325A CN 202110604193 A CN202110604193 A CN 202110604193A CN 113903325 A CN113903325 A CN 113903325A
- Authority
- CN
- China
- Prior art keywords
- user
- text
- point
- audio
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 114
- 238000009877 rendering Methods 0.000 claims abstract description 199
- 210000005069 ears Anatomy 0.000 claims abstract description 31
- 238000004519 manufacturing process Methods 0.000 claims description 77
- 238000004458 analytical method Methods 0.000 claims description 47
- 238000003062 neural network model Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 25
- 230000000981 bystander Effects 0.000 claims description 18
- 238000003860 storage Methods 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 9
- 238000004891 communication Methods 0.000 description 32
- 230000006854 communication Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 30
- 238000007726 management method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 12
- 230000015572 biosynthetic process Effects 0.000 description 11
- 230000005236 sound signal Effects 0.000 description 11
- 238000003786 synthesis reaction Methods 0.000 description 11
- 238000012549 training Methods 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000003058 natural language processing Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 6
- 238000013500 data storage Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000009499 grossing Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 238000013508 migration Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000002194 synthesizing effect Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000001072 colon Anatomy 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000004886 head movement Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000001755 vocal effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003416 augmentation Effects 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
- H04S7/302—Electronic adaptation of stereophonic sound system to listener position or orientation
- H04S7/303—Tracking of listener position or orientation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
本申请实施例提供一种文本转3D音频的方法及装置,该方法中,针对用户选定的待处理文本,提取待配音文本,然后基于预先设定的配音发声点与用户头部位置之间的相对方位,对待配音文本的TTS合成音频进行3D渲染,得到3D音频。用户通过耳机或音箱听取时,不同配音对象的声音能够按照预设的空间方位传至用户双耳中,使得用户能够真实的感觉到,多个角色正在自己的周围进行话语互动,给用户提供真实的3D环绕感,对待处理文本的理解方式变得生动灵活,而且即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
Description
技术领域
本申请涉及语音合成技术领域,尤其涉及文本转3D音频的方法及装置。
背景技术
文本转语音(text to speech,TTS)技术能够将文本转换为自然流畅的语音输出,在很多不便于阅读的场景中都很有必要。目前TTS技术还可以根据用户设定的角色配音对象,将文本转换为某个或多个特定人的说话语音输出,实现个性化语音合成。
若一个文本中包括旁白文本及多个角色的话语文本,那么其转换所得的TTS合成音频中,则包括旁白的TTS合成音频和每个角色的TTS合成音频。当用户通过耳机或外放的音箱听取音频时,所有角色和旁白的声音都是没有方位,直接从耳机或音箱中发出的,若音频中包括多个角色的话语互动,且存在音色相近的配音对象,可能会使用户产生混淆,影响对文本的理解。
发明内容
在现有的文本转音频技术中,所有声音均没有方位,可能会使得用户产生混淆,影响对文本的理解。为了解决这一技术问题,本申请实施例提供了文本转3D音频的方法及装置。
第一方面,本申请实施例公开了一种文本转3D音频的方法,应用于终端设备,所述方法包括:获取用户选定的待处理文本;根据所述待处理文本,获取待配音文本;获取配音发声点与用户头部位置之间的相对方位,所述配音发声点为所述待配音文本的TTS合成音频的空间输出位置;根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染。
本方案提供一种文本转3D音频的方法,该方法中,针对用户选定的待处理文本,提取待配音文本,然后基于预先设定的配音发声点与用户头部位置之间的相对方位,对待配音文本的TTS合成音频进行3D渲染,得到3D音频,用户在听取时,每个配音发声点都从不同的空间方位传至耳朵中,给用户提供真实的3D环绕感,即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
一种实现方式中,所述待配音文本包括旁白文本及每个角色话语文本;所述配音发声点包括旁白发声点及每个角色发声点。
一种实现方式中,所述根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染,包括:根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染;根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染。
一种实现方式中,所述用户头部位置包括用户正脸的水平偏角;所述旁白发声点与所述用户头部位置之间的相对方位包括:所述旁白发声点相较于所述用户正脸的水平偏移角度;所述每个角色发声点与所述用户头部位置之间的相对方位包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度。
一种实现方式中,所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第一水平角度差,对所述旁白文本的TTS合成音频进行3D渲染。
通过上述方案,采用第一水平角度差,对旁白文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度。
一种实现方式中,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第二水平角度差,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,采用第二水平角度差,对每个角色话语文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度。
一种实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点相较于所述用户头部的俯仰偏移角度。
一种实现方式中,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还可以将不同角色发声点设置在不同高度,使每个角色发声点具备角色人物的真实高度,提高用户的体验感。
一种实现方式中,所述旁白发声点与所述用户头部位置之间的相对方位还包括旁白发声点距离,所述旁白发声点距离为所述旁白发声点与所述用户双耳连线中心点之间的距离;所述每个角色发声点与所述用户头部位置之间的相对方位还包括每个角色发声点距离,所述每个角色发声点距离包括所述每个角色发声点与所述用户双耳连线中心点之间的距离。
一种实现方式中,所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第一水平角度差及所述旁白发声点距离,对所述旁白文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度,还能模拟出旁白发声点与用户之间的距离感,提高用户的体验感。
一种实现方式中,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还能使每个角色发声点具备角色人物的真实高度,并且模拟出每个角色人物与用户之间的距离感,提高用户的体验感。
一种实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点的随机水平偏移角度。
一种实现方式中,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;获取第三水平角度和,所述第三水平角度和为所述每个角色发声点的随机水平偏移角度与所述第二水平角度差的和;根据所述第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,使每个角色发声点具备角色人物的真实高度,模拟出每个角色人物与用户之间的距离感,还能控制每个角色发声点在每个时刻,以用户为中心进行小幅度水平移动,模拟出每个角色人物在说话时的身体晃动感,提高用户的体验感。
一种实现方式中,所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:根据所述旁白发声点与所述用户头部位置之间的相对方位,获取第一HRTF滤波系数;根据所述第一HRTF滤波系数,对所述旁白文本的TTS合成音频进行3D渲染。
一种实现方式中,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:根据所述每个角色发声点与所述用户头部位置之间的相对方位,获取第二HRTF滤波系数;根据所述第二HRTF滤波系数,对所述每个角色话语文本的TTS合成音频进行3D渲染。
一种实现方式中,在获取配音发声点与用户头部位置之间的相对方位之前,所述方法还包括:获取所述用户头部位置。
一种实现方式中,所述获取用户头部位置,包括:采集用户头部图像;针对所述用户头部图像,获取所述用户头部位置。
一种实现方式中,所述方法还包括:预先构建语义分析神经网络模型。
一种实现方式中,所述根据所述待处理文本,获取待配音文本,包括:将所述待处理文本输入至所述语义分析神经网络模型中;获取所述语义分析神经网络模型输出的所述待配音文本。
一种实现方式中,所述方法还包括:对所述旁白文本进行语义分析,获取临时事件文本;获取所述临时事件的TTS合成音频。
通过上述方案,对临时事件文本进行配音,可以提高3D音频的场景真实感,使用户身临其境。
一种实现方式中,所述对所述旁白文本进行语义分析,获取临时事件文本,包括:将所述旁白文本输入至所述语义分析神经网络模型中;获取所述语义分析神经网络模型输出的所述临时事件文本。
第二方面,本申请实施例公开了一种文本转3D音频的装置,应用于终端设备,包括:文本获取模块,用于获取用户选定的待处理文本;文本处理模块,用于根据所述待处理文本,获取待配音文本;方位设定模块,用于获取配音发声点与用户头部位置之间的相对方位,所述配音发声点为所述待配音文本的TTS合成音频的空间输出位置;3D渲染模块,用于根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染。
本方案提供一种文本转3D音频的装置,通过该装置,能够针对用户选定的待处理文本,提取待配音文本,然后基于预先设定的配音发声点与用户头部位置之间的相对方位,对待配音文本的TTS合成音频进行3D渲染,得到3D音频,用户在听取时,每个配音发声点都从不同的空间方位传至耳朵中,给用户提供真实的3D环绕感,即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
一种实现方式中,所述待配音文本包括旁白文本及每个角色话语文本;所述配音发声点包括旁白发声点及每个角色发声点。
一种实现方式中,所述3D渲染模块包括:旁白3D渲染单元,用于根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染;角色3D渲染单元,用于根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染。
一种实现方式中,所述用户头部位置包括用户正脸的水平偏角;所述旁白发声点与所述用户头部位置之间的相对方位包括:所述旁白发声点相较于所述用户正脸的水平偏移角度;所述每个角色发声点与所述用户头部位置之间的相对方位包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度。
一种实现方式中,所述旁白3D渲染单元还用于:获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第一水平角度差,对所述旁白文本的TTS合成音频进行3D渲染。
通过上述方案,旁白3D渲染单元采用第一水平角度差,对旁白文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第二水平角度差,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,角色3D渲染单元采用第二水平角度差,对每个角色话语文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度。
一种实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点相较于所述用户头部的俯仰偏移角度。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还可以将不同角色发声点设置在不同高度,使每个角色发声点具备角色人物的真实高度,提高用户的体验感。
一种实现方式中,所述旁白发声点与所述用户头部位置之间的相对方位还包括旁白发声点距离,所述旁白发声点距离为所述旁白发声点与所述用户双耳连线中心点之间的距离;所述每个角色发声点与所述用户头部位置之间的相对方位还包括每个角色发声点距离,所述每个角色发声点距离包括所述每个角色发声点与所述用户双耳连线中心点之间的距离。
一种实现方式中,所述旁白3D渲染单元还用于:获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第一水平角度差及所述旁白发声点距离,对所述旁白文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度,还能模拟出旁白发声点与用户之间的距离感,提高用户的体验感。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;根据所述第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还能使每个角色发声点具备角色人物的真实高度,并且模拟出每个角色人物与用户之间的距离感,提高用户的体验感。
一种实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点的随机水平偏移角度。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;获取第三水平角度和,所述第三水平角度和为所述每个角色发声点的随机水平偏移角度与所述第二水平角度差的和;根据所述第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,使每个角色发声点具备角色人物的真实高度,模拟出每个角色人物与用户之间的距离感,还能控制每个角色发声点在每个时刻,以用户为中心进行小幅度水平移动,模拟出每个角色人物在说话时的身体晃动感,提高用户的体验感。
一种实现方式中,所述旁白3D渲染单元还用于:根据所述旁白发声点与所述用户头部位置之间的相对方位,获取第一HRTF滤波系数;根据所述第一HRTF滤波系数,对所述旁白文本的TTS合成音频进行3D渲染。
一种实现方式中,所述角色3D渲染单元还用于:根据所述每个角色发声点与所述用户头部位置之间的相对方位,获取第二HRTF滤波系数;根据所述第二HRTF滤波系数,对所述每个角色话语文本的TTS合成音频进行3D渲染。
一种实现方式中,所述装置还包括:头部位置获取模块,用于在获取配音发声点与用户头部位置之间的相对方位之前,获取所述用户头部位置。
一种实现方式中,所述头部位置获取模块还用于:采集用户头部图像;针对所述用户头部图像,获取所述用户头部位置。
一种实现方式中,所述装置还包括:模型预构模块,用于预先构建语义分析神经网络模型。
一种实现方式中,所述文本处理模块还用于:将所述待处理文本输入至所述语义分析神经网络模型中;获取所述语义分析神经网络模型输出的所述待配音文本。
一种实现方式中,所述装置还包括:临时事件获取模块,用于对所述旁白文本进行语义分析,获取临时事件文本;临时音频获取模块,用于获取所述临时事件的TTS合成音频。
通过上述方案,对临时事件文本进行配音,可以提高3D音频的场景真实感,使用户身临其境。
一种实现方式中,所述临时事件获取模块还用于:将所述旁白文本输入至所述语义分析神经网络模型中;获取所述语义分析神经网络模型输出的所述临时事件文本。
第三方面,本申请实施例公开了一种终端装置,包括:
至少一个处理器和存储器;
所述存储器,用于存储程序指令;
所述处理器,用于调用并执行所述存储器中存储的程序指令,以使所述终端装置执行如第一方面所述的文本转3D音频的方法。
通过该终端装置执行如第一方面所述的文本转3D音频方法,将用户选定的待处理文本转换为3D音频,用户在听取时,每个配音发声点都从不同的空间方位传至耳朵中,给用户提供真实的3D环绕感,即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
第四方面,本申请实施例公开了一种计算机可读存储介质,
所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得所述计算机执行如第一方面所述的文本转3D音频的方法。
通过该计算机执行如第一方面所述的文本转3D音频方法,,将用户选定的待处理文本转换为3D音频,用户在听取时,每个配音发声点都从不同的空间方位传至耳朵中,给用户提供真实的3D环绕感,即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
本申请实施例提供一种文本转3D音频的方法及装置,该方法中,针对用户选定的待处理文本,提取待配音文本,然后基于预先设定的配音发声点与用户头部位置之间的相对方位,对待配音文本的TTS合成音频进行3D渲染,得到3D音频。用户通过耳机或音箱听取时,不同配音对象的声音能够按照预设的空间方位传至用户双耳中,使得用户能够真实的感觉到,多个角色正在自己的周围进行话语互动,给用户提供真实的3D环绕感,对待处理文本的理解方式变得生动灵活,而且即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
附图说明
图1为本申请实施例公开的一种终端设备的结构示意图;
图2为本申请实施例公开的一种文本转3D音频的方法的工作流程示意图;
图3为本申请实施例公开的一种文本转3D音频的方法中,方位设定的显示界面示意图;
图4为本申请实施例公开的又一种文本转3D音频的方法中,方位设定的显示界面示意图;
图5为本申请实施例公开的又一种文本转3D音频的方法中,方位设定的显示界面示意图;
图6为本申请实施例公开的又一种文本转3D音频的方法中,方位设定的显示界面示意图;
图7为本申请实施例公开的一种文本转3D音频的方法中,获取用户头部位置的示意图;
图8为本申请实施例公开的又一种文本转3D音频的方法中,方位设定的显示界面示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
以下实施例中所使用的术语只是为了描述特定实施例的目的,而并非旨在作为对本申请的限制。如在本申请的说明书和所附权利要求书中所使用的那样,单数表达形式“一个”、“一种”、“所述”、“上述”、“该”和“这一”旨在也包括例如“一个或多个”这种表达形式,除非其上下文中明确地有相反指示。还应当理解,在本申请以下各实施例中,“至少一个”、“一个或多个”是指一个、两个或两个以上。术语“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系;例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B的情况,其中A、B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。
在本说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
在现有的文本转音频技术中,所有声音均没有方位,可能会使得用户产生混淆,影响对文本的理解。为了解决这一技术问题,本申请实施例提供了文本转3D音频的方法及装置。
其中,该方法应用于终端设备,所述终端设备可为手机、平板电脑、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、手持计算机、上网本、个人数字助理(personal digital assistant,PDA)、智能可穿戴设备和虚拟现实设备等终端设备,本申请实施例对此不做任何限制。
以手机为上述终端设备举例,图1示出了一种手机的结构示意图。
手机可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,充电管理模块140,电源管理模块141,电池142,天线1,天线2,射频模块150,通信模块160,音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,传感器模块180,按键190,马达191,指示器192,摄像头193,屏幕301,以及用户标识模块(subscriber identification module,SIM)卡接口195等。
可以理解的是,本申请实施例示意的结构并不构成对手机的具体限定。在本申请另一些实施例中,手机可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是手机的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
在一些实施例中,处理器110可以包括一个或多个接口。接口可以包括集成电路(inter-integrated circuit,I2C)接口,集成电路内置音频(inter-integrated circuitsound,I2S)接口,脉冲编码调制(pulse code modulation,PCM)接口,通用异步收发传输器(universal asynchronous receiver/transmitter,UART)接口,移动产业处理器接口(mobile industry processor interface,MIPI),通用输入输出(general-purposeinput/output,GPIO)接口,用户标识模块(subscriber identity module,SIM)接口,和/或通用串行总线(universal serial bus,USB)接口等。
I2C接口是一种双向同步串行总线,包括一根串行数据线(serial data line,SDA)和一根串行时钟线(derail clock line,SCL)。在一些实施例中,处理器110可以包含多组I2C总线。处理器110可以通过不同的I2C总线接口分别耦合触摸传感器,充电器,闪光灯,摄像头193等。例如:处理器110可以通过I2C接口耦合触摸传感器,使处理器110与触摸传感器通过I2C总线接口通信,实现手机的触摸功能。
I2S接口可以用于音频通信。在一些实施例中,处理器110可以包含多组I2S总线。处理器110可以通过I2S总线与音频模块170耦合,实现处理器110与音频模块170之间的通信。在一些实施例中,音频模块170可以通过I2S接口向通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。
PCM接口也可以用于音频通信,将模拟信号抽样,量化和编码。在一些实施例中,音频模块170与通信模块160可以通过PCM总线接口耦合。在一些实施例中,音频模块170也可以通过PCM接口向通信模块160传递音频信号,实现通过蓝牙耳机接听电话的功能。所述I2S接口和所述PCM接口都可以用于音频通信。
UART接口是一种通用串行数据总线,用于异步通信。该总线可以为双向通信总线。它将要传输的数据在串行通信与并行通信之间转换。在一些实施例中,UART接口通常被用于连接处理器110与通信模块160。例如:处理器110通过UART接口与通信模块160中的蓝牙模块通信,实现蓝牙功能。在一些实施例中,音频模块170可以通过UART接口向通信模块160传递音频信号,实现通过蓝牙耳机播放音乐的功能。
MIPI接口可以被用于连接处理器110与屏幕301,摄像头193等外围器件。MIPI接口包括摄像头串行接口(camera serial interface,CSI),显示屏串行接口(display serialinterface,DSI)等。在一些实施例中,处理器110和摄像头193通过CSI接口通信,实现手机的拍摄功能。处理器110和屏幕301通过DSI接口通信,实现手机的显示功能。
GPIO接口可以通过软件配置。GPIO接口可以被配置为控制信号,也可被配置为数据信号。在一些实施例中,GPIO接口可以用于连接处理器110与摄像头193,屏幕301,通信模块160,音频模块170,传感器模块180等。GPIO接口还可以被配置为I2C接口,I2S接口,UART接口,MIPI接口等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为手机充电,也可以用于手机与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他终端设备,例如AR设备等。
可以理解的是,本申请实施例示意的各模块间的接口连接关系,只是示意性说明,并不构成对手机的结构限定。在本申请另一些实施例中,手机也可以采用上述实施例中不同的接口连接方式,或多种接口连接方式的组合。
充电管理模块140用于从充电器接收充电输入。其中,充电器可以是无线充电器,也可以是有线充电器。在一些有线充电的实施例中,充电管理模块140可以通过USB接口130接收有线充电器的充电输入。在一些无线充电的实施例中,充电管理模块140可以通过手机的无线充电线圈接收无线充电输入。充电管理模块140为电池142充电的同时,还可以通过电源管理模块141为终端设备供电。
电源管理模块141用于连接电池142,充电管理模块140与处理器110。电源管理模块141接收电池142和/或充电管理模块140的输入,为处理器110,内部存储器121,外部存储器,屏幕301,摄像头193,和通信模块160等供电。电源管理模块141还可以用于监测电池容量,电池循环次数,电池健康状态(漏电,阻抗)等参数。在其他一些实施例中,电源管理模块141也可以设置于处理器110中。在另一些实施例中,电源管理模块141和充电管理模块140也可以设置于同一个器件中。
手机的无线通信功能可以通过天线1,天线2,射频模块150,通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。手机中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
射频模块150可以提供应用在手机上的包括2G/3G/4G/5G等无线通信的解决方案。射频模块150可以包括至少一个滤波器,开关,功率放大器,低噪声放大器(low noiseamplifier,LNA)等。射频模块150可以由天线1接收电磁波,并对接收的电磁波进行滤波,放大等处理,传送至调制解调处理器进行解调。射频模块150还可以对经调制解调处理器调制后的信号放大,经天线1转为电磁波辐射出去。在一些实施例中,射频模块150的至少部分功能模块可以被设置于处理器110中。在一些实施例中,射频模块150的至少部分功能模块可以与处理器110的至少部分模块被设置在同一个器件中。
调制解调处理器可以包括调制器和解调器。其中,调制器用于将待发送的低频基带信号调制成中高频信号。解调器用于将接收的电磁波信号解调为低频基带信号。随后解调器将解调得到的低频基带信号传送至基带处理器处理。低频基带信号经基带处理器处理后,被传递给应用处理器。应用处理器通过音频设备(不限于扬声器170A,受话器170B等)输出声音信号,或通过屏幕301显示图像或视频。在一些实施例中,调制解调处理器可以是独立的器件。在另一些实施例中,调制解调处理器可以独立于处理器110,与射频模块150或其他功能模块设置在同一个器件中。
通信模块160可以提供应用在手机上的包括无线局域网(wireless local areanetworks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(Bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequencymodulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。通信模块160可以是集成至少一个通信处理模块的一个或多个器件。通信模块160经由天线2接收电磁波,将电磁波信号调频以及滤波处理,将处理后的信号发送到处理器110。通信模块160还可以从处理器110接收待发送的信号,对其进行调频,放大,经天线2转为电磁波辐射出去。
在一些实施例中,手机的天线1和射频模块150耦合,天线2和通信模块160耦合,使得手机可以通过无线通信技术与网络以及其他设备通信。所述无线通信技术可以包括全球移动通讯系统(global system for mobile communications,GSM),通用分组无线服务(general packet radio service,GPRS),码分多址接入(code division multipleaccess,CDMA),宽带码分多址(wideband code division multiple access,WCDMA),时分码分多址(time-division code division multiple access,TD-SCDMA),长期演进(longterm evolution,LTE),BT,GNSS,WLAN,NFC,FM,和/或IR技术等。所述GNSS可以包括全球卫星定位系统(global positioning system,GPS),全球导航卫星系统(global navigationsatellite system,GLONASS),北斗卫星导航系统(beidou navigation satellitesystem,BDS),准天顶卫星系统(quasi-zenith satellite system,QZSS)和/或星基增强系统(satellite based augmentation systems,SBAS)。
手机通过GPU,屏幕301,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接屏幕301和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。在本申请实施例中,屏幕301中可包括显示器和触控器件。显示器用于向用户输出显示内容,触控器件用于接收用户在屏幕301上输入的触摸事件。
在手机中,传感器模块180可以包括陀螺仪,加速度传感器,压力传感器,气压传感器,磁传感器(例如霍尔传感器),距离传感器,接近光传感器,指纹传感器,温度传感器,触摸传感器,热释电红外传感器,环境光传感器或骨传导传感器等一项或多项,本申请实施例对此不做任何限制。
手机可以通过ISP,摄像头193,视频编解码器,GPU,柔性屏幕301以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,手机可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当手机在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。手机可以支持一种或多种视频编解码器。这样,手机可以播放或录制多种编码格式的视频,例如:动态图像专家组(movingpicture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
NPU为神经网络(neural-network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现手机的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展手机的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行手机的各种功能应用以及数据处理。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储手机使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
手机可以通过音频模块170,扬声器170A,受话器170B,麦克风170C,耳机接口170D,以及应用处理器等实现音频功能。例如音乐播放,录音等。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。手机可以通过扬声器170A收听音乐,或收听免提通话。
受话器170B,也称“听筒”,用于将音频电信号转换成声音信号。当手机接听电话或语音信息时,可以通过将受话器170B靠近人耳接听语音。
麦克风170C,也称“话筒”,“传声器”,用于将声音信号转换为电信号。当拨打电话或发送语音信息时,用户可以通过人嘴靠近麦克风170C发声,将声音信号输入到麦克风170C。手机可以设置至少一个麦克风170C。在另一些实施例中,手机可以设置两个麦克风170C,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,手机还可以设置三个,四个或更多麦克风170C,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170D用于连接有线耳机。耳机接口170D可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association ofthe USA,CTIA)标准接口。
按键190包括开机键,音量键等。按键190可以是机械按键。也可以是触摸式按键。手机可以接收按键输入,产生与手机的用户设置以及功能控制有关的键信号输入。
马达191可以产生振动提示。马达191可以用于来电振动提示,也可以用于触摸振动反馈。例如,作用于不同应用(例如拍照,音频播放等)的触摸操作,可以对应不同的振动反馈效果。作用于柔性屏幕301不同区域的触摸操作,马达191也可对应不同的振动反馈效果。不同的应用场景(例如:时间提醒,接收信息,闹钟,游戏等)也可以对应不同的振动反馈效果。触摸振动反馈效果还可以支持自定义。
指示器192可以是指示灯,可以用于指示充电状态,电量变化,也可以用于指示消息,未接来电,通知等。
SIM卡接口195用于连接SIM卡。SIM卡可以通过插入SIM卡接口195,或从SIM卡接口195拔出,实现和手机的接触和分离。手机可以支持1个或N个SIM卡接口,N为大于1的正整数。SIM卡接口195可以支持Nano SIM卡,Micro SIM卡,SIM卡等。同一个SIM卡接口195可以同时插入多张卡。所述多张卡的类型可以相同,也可以不同。SIM卡接口195也可以兼容不同类型的SIM卡。SIM卡接口195也可以兼容外部存储卡。手机通过SIM卡和网络交互,实现通话以及数据通信等功能。在一些实施例中,手机采用eSIM,即:嵌入式SIM卡。eSIM卡可以嵌在手机中,不能和手机分离。
另外,在上述部件之上,运行有操作系统。例如苹果公司所开发的iOS操作系统,谷歌公司所开发的安卓Android开源操作系统,微软公司所开发的Windows操作系统等。在该操作系统上可以安装运行应用程序。
为了明确本申请提供的方案,以下结合附图,通过各个实施例,对本申请所提供的方案进行介绍说明。
本申请实施例提供一种文本转3D音频的方法,参见图2所示的工作流程示意图,本申请实施例提供的文本转3D音频的方法,包括以下步骤:
步骤21,获取用户选定的待处理文本。
当需要听取3D音频时,用户在终端设备上选定要转换的对象,终端设备基于用户的选择,从中提取出文本内容,生成待处理文本。
一些情况下,用户在终端设备上选择一个文本文件,如后缀为“.txt”,“.doc”或“.pdf”的文本文件,终端设备直接提取文件中的文本内容,生成待处理文本。
另一些情况下,用户在终端设备上选择一个网址,网址包含一些文本内容。在用户选定之后,终端设备对该网址进行解析,获取网页中的文本内容,生成待处理文本。
还有一些情况下,用户选择特定图片,图片上包含一些文本内容。在用户选定之后,终端设备对图片进行图像分析,例如采用光学字符识别(Optical CharacterRecognition,OCR)技术,识别并提取图片中的文字,生成待处理文本。其中,特定图片可以是用户通过对书本拍照所得。
步骤22,根据所述待处理文本,获取待配音文本。
对待处理文本进行语义分析,能够识别出待处理文本中存在哪些需要配音的文本。
在一种实现方式中,待配音文本包括旁白文本及每个角色话语文本。
对待处理文本进行语义分析,能够识别出待处理文本中包含哪些说话语句以及每个说话语句对应哪个角色,即识别出所述每个角色的话语文本。除了说话语句之外,待处理文本中的其余内容都可以判定为旁白文本。
在对待处理文本进行语义分析时,首先识别出说话语句,作为示例,可以通过以下几种方法来识别:
一.通过指示性词语进行识别,例如:“说”、“喊”、“说到”或者“叫”等,一旦识别到这类指示性词语,则可以确定该词语后面的句子为说话语句。这种方法需要预先建立词典数据库,以及建立一个针对说话语句的指示性词语列表,对输入的待处理文本进行分词和查找匹配,识别出这些指示性词语,然后进一步识别出说话语句。
二.通过指示性标点符号进行识别,例如:双引号或者冒号等,其中双引号之间的句子为说话语句,冒号之后的句子为说话的语句。这种方法需要预先建立标点符号列表,以及建立一个针对说话语句的指示性标点符号列表,对输入的待处理文本进行标点符号的查找和匹配,识别出这些指示性标点符号,然后进一步识别出说话语句。
三.通过深度学习的方法进行识别,例如使用开源的OpenNLP、NLTK或斯坦福NLP等自然语言处理算法,构建初始模型,然后使用预先标注完成的训练集文本进行训练,得到语义分析神经网络模型,使用语义分析神经网络模型来识别待处理文本中的说话语句。其中预先对训练集文本进行标注的操作,包括标注训练集文本中的分句、分词、标点、说话语句的指示性词语、说话语句的指示性标点和说话语句。
实际操作中,可以采取上述任一种或多种方法结合,对待处理文本进行语义分析,识别出说话语句,提高识别准确率。
在识别出说话语句之后,继续对待处理文本进行语义分析,识别出说话语句对应的角色,作为示例,可以通过以下几种方法来识别:
一.通过指示性词语进行识别,例如:“说”、“喊”、“说到”或者“叫”等,一旦识别到这类指示性词语,则可以初步确定该词语前面的名词为说话的角色。这种方法需要建立词典数据库(包含词和对应的词性),以及建立一个针对说话语句的指示性词语列表,对输入的待处理文本进行分句、分词、查找匹配甚至语法分析,识别出这些指示性词语,然后进一步识别出代表角色的名词。
二.通过指示性标点符号进行识别,例如:双引号或冒号,这两个标点符号之前的代表角色的名词,可以初步判定为说话的角色。这种方法需要建立标点符号列表,以及针对说话语句的指示性标点符号列表,对输入的待处理文本进行标点符号的查找和匹配,识别出这些指示性标点符号,然后进一步识别出代表角色的名词。
针对上述两种方法,在一些情况下,如果出现类似“C对D说”、“C跟D说”这样的句子,指示性词语“说”的前面存在两个代表角色的名词,即“C”和“D”,可以进一步分析“C”和“D”之间词语的词性,由于“对”或者“跟”是介词,则可以判定“C”才是后续说话语句对应的角色。
三.通过深度学习的方法进行识别,例如开源的OpenNLP、NLTK、斯坦福NLP等自然语言处理算法,构建初始模型,然后使用预先标注完成的训练集文本进行训练,得到语义分析神经网络模型,使用语义分析神经网络模型来识别待处理文本中每个说话语句对应的角色。其中预先对训练集文本进行标注的操作,包括标注训练集文本中的分句、分词、标点、说话语句指示性词语、语句指示性标点和说话语句对应的角色。
实际操作中,可以采取上述任一种或多种方法结合,对待处理文本进行语义分析,识别出说话语句对应的角色,提高识别准确率。
在识别出每个说话语句对应的角色之后,可以生成每个角色的话语文本,每个角色的话语文本中,至少包括一个说话语句。另外,可以将除了说话语句之外的文本都设定为旁白文本。
基于得到的每个角色话语文本和旁白文本,采用TTS技术,可以将待配音文本转换成音频,得到TTS合成音频。待配音文本的TTS合成音频包括旁白文本的TTS合成音频和每个角色话语文本的TTS合成音频。
在一种实现方式中,在将待配音文本转换成音频之前,先获取设定好的配音对象,后续采用TTS技术,将配音对象的声音与待配音文本进行合成,得到TTS合成音频。配音对象可以由用户可以预先自行设定,也可以由终端设备选定。
终端设备在选定配音对象时,可以采用以下几种方式:
一.完全随机选定。
二.通过分析用户之前的偏好来选定。根据用户的历史设定,选择次数最多的配音对象作为本次配音对象。
三.优选选择用户最近的设定。将用户最近选择的配音对象作为本次配音对象。
将配音对象的声音与待配音文本进行合成,包括:将旁白配音对象的声音与旁白文本进行合成,得到旁白文本的TTS合成音频;将每个角色配音对象的声音分别与各自对应的角色话语文本进行合成,得到每个角色话语文本的TTS合成音频。
待配音文本的TTS合成音频可以采用以下方法获取:
一.通过深度学习的方法进行合成,采用开源的特定人语音合成算法,对每个角色或者旁白使用指定的配音对象进行TTS语音合成。
二.通过预设的配音对象语音库,进行词汇音频拼接来实现。
实际操作中,可以采取上述任一种或两种方法结合,对待配音文本与配音对象进行合成,提高音频合成的精确度和真实度。
示例性的,若待配音文本中包含两个角色的话语互动,设定人物E作为旁白配音对象,设定人物F作为第一个角色的配音对象,设定人物G作为第二个角色的配音对象,那么最后得到的TTS合成音频中,包括模仿人物E的声音对旁白文本进行配音的音频(即旁白文本的TTS合成音频)、模仿人物F的声音对第一个角色话语文本进行配音的音频以及模仿人物G的声音对第二个角色话语文本进行配音的音频(即每个角色话语文本的TTS合成音频)。
一些情况下,可以通过终端设备采用TTS技术,将待配音文本转换成TTS合成音频。
另一些情况下,可以通过终端设备将待配音文本以及设定好的配音对象,共同发送至云端服务器,由云端服务器采用TTS技术,将待配音文本转换成TTS合成音频,然后发送回终端设备。这种情况下,终端设备无需进行TTS音频转换处理,能够降低终端设备的功耗。
步骤23,获取配音发声点与用户头部位置之间的相对方位。其中,配音发声点为所述待配音文本的TTS合成音频的空间输出位置。
配音发声点与用户头部位置之间的相对方位为预先设定好的,限定了TTS合成音频中配音对象的声音从什么空间方位传入用户的耳朵中。
示例性的,用户可以按照喜好,设定配音发声点与自身头部位置之间的相对方位,后续对待配音文本的TTS合成音频进行3D渲染时,每个配音发声点都会按照用户设定的方位传入耳朵中,增强用户的个性化体验感,有助于用户对文本的理解。
示例性的,终端设备可以随机生成配音发声点与用户头部位置之间的相对方位,只要确保不同配音对象的声音传入用户耳朵中的空间方位不同即可,以避免用户对产生混淆,影响对文本的理解。
在一种实现方式中,所述配音发声点包括旁白发声点及每个角色发声点。
配音发声点与用户头部位置之间的相对方位包括:旁白发声点与用户头部位置之间的相对方位、每个角色发声点与用户头部位置之间的相对方位。
旁白发声点与用户头部位置之间的相对方位,限定了旁白配音对象的声音从什么方位传入用户的耳朵中。
每个角色发声点与用户头部位置之间的相对方位,限定了每个角色配音对象的声音从什么方位传入用户的耳朵中。
步骤24,根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染。
步骤21至步骤24提供一种文本转3D音频的方法,该方法中,针对用户选定的待处理文本,提取待配音文本,然后基于预先设定的配音发声点与用户头部位置之间的相对方位,对待配音文本的TTS合成音频进行3D渲染,得到3D音频。用户通过耳机或音箱听取时,不同配音对象的声音能够按照预设的空间方位传至用户双耳中,使得用户能够真实的感觉到,多个角色正在自己的周围进行话语互动,给用户提供真实的3D环绕感,对待处理文本的理解方式变得生动灵活,而且即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
在本申请提供的实施例中,所述配音发声点包括旁白发声点及每个角色发声点,所述待配音文本的TTS合成音频包括旁白文本的TTS合成音频和每个角色话语文本的TTS合成音频,那么步骤24,根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染,包括:
步骤241,根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染。
步骤242,根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染。
本实施例采用HRTF函数执行音频3D渲染操作,HRTF(Head Related TransferFunction)函数为头相关传输函数,是一种音效定位算法,对应时域的头相关冲击响应,通过模拟人体头部,研究多个空间方位的头相关脉冲响应数据,构建HRTF数据库。实际应用中,根据设定好的音频空间输出方位,在HRTF数据库中查找相应的滤波系数,通过该滤波系数对音频进行处理,便可得到3D音频。
其中,对所述旁白文本的TTS合成音频进行3D渲染,包括:
根据所述旁白发声点与所述用户头部位置之间的相对方位,在HRTF数据库中进行查找,获取旁白发声点对应的第一HRTF滤波系数。
将旁白文本的TTS合成音频从时域转换至频域,然后与第一HRTF滤波系数进行相乘,将相乘得到的结果转换回时域,得到旁白文本的空间渲染信号,实现旁白文本TTS合成音频的3D渲染。
其中,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
根据所述每个角色发声点与所述用户头部位置之间的相对方位,在HRTF数据库中进行查找,获取每个角色发声点对应的第二HRTF滤波系数。
将每个角色话语文本的TTS合成音频从时域转换至频域,然后与各自发声点对应的第二HRTF滤波系数进行相乘,将相乘得到的结果转换回时域,得到每个角色话语文本的空间渲染信号,实现每个角色话语文本TTS合成音频的3D渲染。
本申请提供的实施例中,采用HRTF函数执行音频3D渲染操作之前,必须要确定音频的空间输出位置,即确定配音发声点与用户头部位置之间的相对方位,该相对方位可以由用户预先设定,也可以由终端设备随机生成。
用户或者终端设备在设定配音发声点与用户头部位置之间的相对方位时,存在以下几种情况:
第一种情况,考虑每个配音发声点的高度与用户一样高,每个配音发声点从用户头部高度处的不同侧传至用户耳朵中。
例如,若待配音文本中包含两个角色的话语互动,配音发声点包括旁白发声点及两个角色发声点。在第一种情况下,可以设定旁白发声点在用户正脸的正前方;第一个角色发声点位于用户正脸的左侧三十度处;第二个角色发声点位于用户正脸的右侧三十度处。示例性的,左侧可以用正号表示,右侧可以用负号表示,那么左侧三十度可表示为+30°,右侧三十度可表示为-30°。
第二种情况,考虑每个配音发声点的高度不一定与用户一样高,且每个配音发声点可能从不同侧传至用户耳朵中。这种情况下,由于旁白仅是叙述性的描述,不需要增加人物真实感,因此可以将旁白发声点默认与用户头部一样高。将不同角色发声点设置在不同高度,以模拟角色人物的真实身高,增加用户的3D体验感。
例如,基于第一种情况中的示例,在第二种情况下,可以设定旁白发声点的高度与用户头部一样高;第一个角色发声点位于用户头部的仰角十度处;第二个角色发声点位于用户头部的俯角五度处。本实施例中,使用俯仰偏移角表示配音发音点相较于用户头部位于何种高度,俯仰偏移角为配音发声点与用户头部的连线相较于水平线的角度,示例性的,仰角代表配音发声点位于用户头部上方,可以用正号表示,俯角代表配音发声点位于用户头部下方,可以用负号表示,那么仰角十度可表示为+10°,俯角五度可表示为-5°。
第三种情况,在第二种情况的基础上,考虑每个配音发声点从不同高度处的不同侧传至用户耳朵中,而且,每个配音发声点与用户头部之间存在不同的距离。
例如,基于第二种情况中的示例,在第三种情况下,可以设定旁白发声点与用户头部距离一米;第一个角色发声点与用户头部距离0.8米;第二个角色发声点与用户头部距离0.9米。
第四种情况,在第三种情况的基础上,允许每个角色发声点在不同时刻发生小幅度的水平角度偏移,以模拟真实人物在用户周围说话时的随机晃动感,这种情况下,不考虑旁白,仅考虑每个角色的人物真实感,控制每个角色发声点的高度不变,与用户头部的距离不变,在水平方向上以用户为中心进行小幅度移动,增加每个角色的真实感。
例如,基于第三种情况中的示例,在第四种情况下,可以设定旁白发声点任何时刻都保持不变;第一个角色发声点可以发生角度不大于五度的水平移动,因而该角色发声点在某个时刻,可能位于用户正脸左侧的二十五度至三十五度范围之内的任一个角度;第二个角色发声点可以发生角度不大于八度的水平移动,即该角色发声点在某个时刻,可能位于用户正脸右侧的二十二度至三十八度范围之内的任一个角度。
针对上述第一种情况,本申请提供一种实现方式,该实现方式中,所述用户头部位置包括用户正脸的水平偏角。示例性的,用户正脸的水平偏角以终端设备为基准,若用户正脸朝向终端设备,则用户正脸的水平偏角为0度。
所述旁白发声点与所述用户头部位置之间的相对方位包括:所述旁白发声点相较于所述用户正脸的水平偏移角度,这一角度限定了旁白配音对象的声音从什么方位传至用户的耳朵中。
所述每个角色发声点与所述用户头部位置之间的相对方位包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度,这一角度限定了每个角色配音对象的声音从什么方位传至用户的耳朵中。
在这种实现方式下,当用户头部发生转动,正脸没有朝向终端设备时,用户正脸的水平偏角不为零,若直接采用预设的配音发声点发声点相较于用户正脸的水平偏移角度,对待配音文本的TTS合成音频进行3D渲染,那么会因为用户正脸水平偏角的存在,导致获取的空间渲染信号产生偏差,使得配音对象的声音不会按照预设的方位传至用户的耳朵中。
为了避免上述问题,步骤241:根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:
步骤2411,获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。
步骤2412,根据所述第一水平角度差,对所述旁白文本的TTS合成音频进行3D渲染。
通过步骤2411-步骤2412提供的方法,将旁白发声点相较于用户正脸的水平偏移角度,减去用户正脸的水平偏角,得到第一水平角度差,然后采用第一水平角度差,对旁白文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度。
步骤242:根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
步骤2421,获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。
步骤2422,根据所述第二水平角度差,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过步骤2421-步骤2422提供的方法,将每个角色发声点相较于用户正脸的水平偏移角度,减去用户正脸的水平偏角,得到第二水平角度差,然后采用第二水平角度差,对每个角色话语文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度。
作为示例,假设某一配音发声点(可能为旁白发声点或者某个角色发声点)表示为Rk,用户表示为U,用户正脸的水平偏角表示为αU(t),这一配音发声点相对于用户正脸的水平偏移角度表示为那么第一水平角度差或者第二水平角度差可以通过以下公式获取:
若设定人物E作为旁白配音对象,设定人物F作为第一个角色的配音对象,设定人物G作为第二个角色的配音对象,那么用户或者终端设备在设定配音发声点与用户头部位置之间的相对方位时,显示界面可以如图3所示。
得到旁白发声点对应的第一水平角度差后,在HRTF数据库中进行查找,获取第一HRTF滤波系数。利用第一HRTF滤波系数,对旁白文本的TTS合成音频进行3D渲染。
得到每个角色发声点对应的第二水平角度差后,在HRTF数据库中进行查找,获取每个角色发声点对应的第二HRTF滤波系数。利用第二HRTF滤波系数,对每个角色话语文本的TTS合成音频进行3D渲染。
针对上述第二种情况,本申请提供一种实现方式,该实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位不仅包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度,还包括:所述每个角色发声点相较于所述用户头部的俯仰偏移角度。
在这种实现方式下,步骤242:所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
步骤2423,获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。
步骤2424,根据所述第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,对所述每个角色话语文本的TTS合成音频进行3D渲染。
不管用户是抬头还是低头,其头部的高度都不会产生变化,因此,每个角色发声点相较于用户头部的俯仰偏移角度也不会发生变化。步骤2423-步骤2424提供的方法中,将每个角色发声点相较于用户正脸的水平偏移角度,减去用户正脸的水平偏角,得到第二水平角度差,然后采用第二水平角度差,以及每个角色发声点相较于所述用户头部的俯仰偏移角度,对每个角色话语文本的TTS合成音频进行3D渲染,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还能使每个角色发声点具备角色人物的真实高度,提高用户的体验感。
在第一种情况提供的实现方式基础上,作为示例,假设这一角色发声点相较于用户头部的俯仰偏移角度表示为那么结合上述第二种情况中的举例,第一个角色发声点位于用户头部的仰角十度处,则对应的为+10°;第二个角色发声点位于用户头部的俯角五度处,则对应的为-5°。
用户或者终端设备在设定配音发声点与用户头部位置之间的相对方位时,显示界面可以如图4所示。
基于每个角色发声点对应的第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,在HRTF数据库中进行查找,获取每个角色对应的第二HRTF滤波系数。利用第二HRTF滤波系数,对每个角色话语文本的TTS合成音频进行3D渲染。
针对上述第三种情况,本申请提供一种实现方式,该实现方式中,所述旁白发声点与所述用户头部位置之间的相对方位不仅包括:所述旁白发声点相较于所述用户正脸的水平偏移角度,还包括旁白发声点距离,所述旁白发声点距离为所述旁白发声点与所述用户双耳连线中心点之间的距离。
所述每个角色发声点与所述用户头部位置之间的相对方位不仅包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度,以及,所述每个角色发声点相较于所述用户头部的俯仰偏移角度,还包括:每个角色发声点距离,所述每个角色发声点距离包括所述每个角色发声点与所述用户双耳连线中心点之间的距离。
在这种实现方式下,步骤241:所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:
步骤2413,获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。
步骤2414,根据所述第一水平角度差及所述旁白发声点距离,对所述旁白文本的TTS合成音频进行3D渲染。
通过步骤2413-步骤2414提供的方法,将旁白发声点相较于用户正脸的水平偏移角度,减去用户正脸的水平偏角,得到第一水平角度差,然后采用第一水平角度差以及预设的旁白发声点距离,对旁白文本的TTS合成音频进行3D渲染,不仅可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度,还能模拟出旁白发声点与用户之间的距离感,提高用户的体验感。
在这种实现方式下,步骤242:所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
步骤2425,获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。
步骤2426,根据所述第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过步骤2425-步骤2426提供的方法,将每个角色发声点相较于用户正脸的水平偏移角度,减去用户正脸的水平偏角,得到第二水平角度差,然后采用第二水平角度差、每个角色发声点相较于所述用户头部的俯仰偏移角度以及每个角色发声点距离,对每个角色话语文本的TTS合成音频进行3D渲染,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还能使每个角色发声点具备角色人物的真实高度,模拟出每个角色人物与用户之间的距离感,提高用户的体验感。
结合上述第三种情况中的举例,旁白发声点在用户头部的正前方一米处,则对应的旁白发声点距离为一米;第一个角色发声点与用户头部之间的距离为0.8米,则对应的角色发声点距离为0.8米;第二个角色发声点与用户头部之间的距离为0.9米,则对应的角色发声点距离为0.9米。
用户或者终端设备在设定配音发声点与用户头部位置之间的相对方位时,显示界面可以如图5所示。
在这种实现方式中,按照第二种情况提供的公式,计算旁白发声点对应的第一水平角度差、每个角色发声点对应的第二水平角度差。
根据旁白发声点对应的第一水平角度差及旁白发声点距离,在HRTF数据库中进行查找,获取第一HRTF滤波系数。利用第一HRTF滤波系数,对旁白文本的TTS合成音频进行3D渲染。
根据每个角色发声点对应的第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及每个角色发声点距离,在HRTF数据库中进行查找,获取每个角色发声点对应的第二HRTF滤波系数。利用第二HRTF滤波系数,对每个角色话语文本的TTS合成音频进行3D渲染。
针对上述第四种情况,本申请提供一种实现方式,该实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位不仅包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度、所述每个角色发声点相较于所述用户头部的俯仰偏移角度,以及每个角色发声点距离,还包括:所述每个角色发声点的随机水平偏移角度。
在这种实现方式下,步骤242:根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
步骤2427,获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。
步骤2428,获取第三水平角度和,所述第三水平角度和为所述每个角色发声点的随机水平偏移角度与所述第二水平角度差的和。
步骤2429,根据所述第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过步骤2427-步骤2429提供的方法,将每个角色发声点相较于用户正脸的水平偏移角度,减去用户正脸的水平偏角,得到第二水平角度差,然后将第二水平角度差加上随机水平偏移角度,得到第三水平角度和,采用第三水平角度和、每个角色发声点相较于所述用户头部的俯仰偏移角度以及每个角色发声点距离,对每个角色话语文本的TTS合成音频进行3D渲染,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还能使每个角色发声点具备角色人物的真实高度,模拟出每个角色人物与用户之间的距离感、每个角色人物在说话时的身体晃动感,以提高用户的体验感。
用户或者终端设备在设定配音发声点与用户头部位置之间的相对方位时,显示界面可以如图6所示。
根据得到的每个角色的第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及每个角色发声点距离,在HRTF数据库中进行查找,获取每个角色发声点对应的第二HRTF滤波系数。利用第二HRTF滤波系数,对每个角色话语文本的TTS合成音频进行3D渲染。
针对第四种情况,本申请实施例还提供一种随机水平偏移角度生成的方法。rand函数能够生成位于两个指定数之间的一个随机整数,本实施例结合rand函数,在用户设定好两个指定数以及取值的基础上,通过以下公式生成任一时刻的随机水平偏移角度:
其中,rand(t)能够在第t时刻生成一个位于0-norm范围内的随机整数。
为了避免某个角色发声点在相邻两个时刻内,随机水平偏移角度相差较大,使得角色发声点发生较大幅度的移动,影响用户的体验,本实施例采用平滑因子,为随机水平偏移角度的生成加入平滑操作,参见以下公式:
其中,w是平滑因子,取值范围是[0,1],w越小,随机水平偏移角度在相邻两个时刻内的变化就越平滑。
作为示例,假设norm=1,w=0.2,那么任一时刻的随机水平偏移角度为:
上述实施例中,用户可以设定每个角色发声点的水平随机偏移角度,使得经过3D渲染之后输出的音频中,每个角色发声点在不同时刻会进行移动,以模拟真实人物在说话过程中的晃动,且通过加入平滑操作,使得角色发声点在相邻两个时刻内发生的偏移不会太大,尽可能的自然真实,优化用户的体验。
上述四种情况,需以用户头部位置为基础,然后按照预先设定的配音发声点与用户头部位置之间的相对方位,对音频进行3D渲染。在3D渲染的过程中,可以保持对用户头部的头动跟踪,也可以关闭对用户头部的头动跟踪。头动跟踪是指实时获取用户头部位置,包括用户头部的移动或水平偏转。
若保持对用户头部的头动跟踪,那么需要实时获取用户头部位置,基于获取的结果,实时对待配音文本的TTS合成音频进行3D渲染,且需边渲染边输出。若关闭对用户头部的头动跟踪,则无需实时获取用户头部位置,只需在进行3D渲染的最初始时刻,获取用户头部位置,后续整个3D渲染的过程,都以最初始用户头部位置为依据,可以边渲染边输出,也可以提前全部渲染完成,再输出。
实际情景中,若用户的周围真实存在多个人物进行话语互动,那么在用户发生移动时,真实存在的人物是不会随着用户的移动而移动的。
若保持对用户头部的头动跟踪,那么只要用户头部发生移动或偏转,用户正脸的水平偏角αU(t)会发生变化,旁白发声点对应的第一水平角度差以及每个角色发声点对应的第二水平角度差,皆会发生变化。经过3D渲染之后,不同时刻对应不同的空间渲染信号,在用户头部位置不同的基础上,每个配音发声点的空间输出位置,将保持不变,不会随着用户的移动而发生变化,如此可以模拟出角色人物的真实存在感。
若关闭对用户头部的头动跟踪,那么不管用户头部是否发生移动或偏转,用户正脸在每个时刻的水平偏角αU(t)始终为初始时刻的大小,即αU(0),如此,在任一时刻,旁白发声点对应的第一水平角度差及每个角色发声点对应的第二水平角度差,都不会发生变化。经过3D渲染之后,不同时刻对应相同的空间渲染信号,在用户头部位置不同的基础上,每个配音发声点的空间输出位置,始终会以用户头部的变化为基础,而产生相应的变化。例如,针对示例中的旁白发声点,当用户走动或者转动头部时,旁白发声点将始终保持在用户头部正前方一米处。
用户或者终端设备在设定配音发声点与用户头部位置之间的相对方位时,可以考虑上述四种情况,具体实施时,还存在其余一些情况,具体根据HRTF数据库中存储的冲击响应数据设定。例如,若HRTF数据库只存储固定某个距离的冲激响应数据(例如距离固定为0.5米),且俯仰角偏移角度固定为0度,那么在设定配音发声点与用户头部位置之间的相对方位时,每个角色发声点距离和旁白发声点距离必须固定为0.5米,每个配音发声点的高度与用户头部高度相等。
本实施例中,用户头部位置可以采用以下几种方式获取:
在一些情况下,采用图像处理的方式获取用户头部位置,实际操作中,可以通过另外的图像采集装置,或者,通过终端设备自带的图像采集装置,采集用户头部图像,然后针对所述用户头部图像进行分析,以获取用户头部位置。
示例性的,结合图7,若通过图像处理的方式获取用户头部位置,则利用图像采集装置拍摄用户头部图像,通过终端设备对图像进行分析。分析过程中,首先检测用户的头部,分析出头部的半径rh,然后检测用户的脸部,进一步检测用户的双耳,通过分析,获取得到左耳离终端设备的垂直距离dl,和右耳离终端设备的垂直距离dr,最后利用以下公式,计算出用户正脸的水平偏角α:
若并未检测到用户头部,为了提高音频转换效率,可以直接默认用户正脸的水平偏角为0度。
在另一些情况下,通过运动传感器来捕捉用户头部向上、向下、向左或向右的移动,从而间接估算出用户头部的位置,运动传感器通常设置在用户佩戴的耳机上。在用户头部位置发生变化时,通过耳机携带的运动传感器,可以跟踪刷新用户的头部相对位置,实现对用户头部的头动跟踪。
示例性的,若通过运动传感器的方式获取用户头部位置,则在获取用户头部位置时,由于运动传感器只能检测用户在任意两个时刻之间的头部转动角度,不能获知用户在某一时刻的水平偏角,因此这种情况下,可以将最初始时用户正脸的水平偏角默认为0度。后续若对用户头部进行头动跟踪,只要获取用户头部在两个时刻之间的转动角度,便可以获取用户头部在后一个时刻的水平偏角。
实际应用中,若用户佩戴耳机来听取音频,则可以通过上述任一种方式或两种方式结合来获取用户的头部位置。若用户未佩戴耳机,而是通过音箱来听取,则可以采用图像处理的方式获取用户头部位置。
示例性的,若结合图像处理和运动传感器的方式获取用户头部位置,当图像采集装置能够捕捉到用户的双耳时,便以图像处理的方式来分析用户头部的偏转角度,当不能捕捉到用户的双耳时,则采用运动传感器获取用户头部的偏转角度。例如,当用户头部旋转到一定程度,图像采集装置只能捕捉到其中一只耳朵时,可以切换至运动传感器继续跟踪用户头部的运动,在其中一只耳朵在图像中快消失前,便将这个时刻经图像处理得到的用户头部水平偏角,设置为运动传感器中的用户头部初始水平偏角。
实际应用中,若用户选择保持头动跟踪,终端设备可以生成相应选项提供给用户,参见图8所示的显示界面,用户可以选择通过运动传感器和/或图像处理器进行头动跟踪。
在一种实现方式中,待配音文本还包括临时事件文本,临时事件是指场景或环境中非角色发出的待配音事件,例如:“下雨”、“打雷”或者“鸟叫”等事件。由于是非角色发出的待配音事件,因此针对旁白文本进行分析检测,便可以识别出临时事件文本,作为示例,可以通过以下几种方法来识别:
一.在旁白文本中,通过关键词查找的方法,检测出临时事件文本。这种方法需要建立词典数据库,以及建立一个针对临时事件的词语列表,对输入的旁白文本进行分词和查找匹配,识别出这些临时事件文本。
二.通过深度学习的方法,例如使用开源的OpenNLP、NLTK或斯坦福NLP等自然语言处理算法,构建初始模型,然后使用预先标注完成的训练集文本进行训练,得到语义分析神经网络模型,使用语义分析神经网络模型来识别旁白文本中的临时事件文本。其中预先对训练集文本进行标注的操作,包括标注训练集文本中的分句、分词、标点,以及临时事件。
实际操作中,可以采取上述任一种或多种方法结合,对旁白文本进行语义分析,识别出临时事件文本,提高识别准确率。
识别出临时事件文本之后,对临时事件文本进行配音,可以提高3D音频的场景真实感,使用户身临其境。实际操作时,可以预设一个临时事件音频库中,从这个音频库中查找与临时事件文本相对应的音频,在对待配音文本的TTS合成音频进行3D渲染的同时,将临时事件文本的音频插入到对应时间点。由于临时事件为场景或环境中非角色发出的待配音事件,在音频中充当背景,可以不用对其进行方位的渲染,直接输出。
下述为本申请的装置实施例,可以用于执行本申请的方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请的方法实施例。
作为对上述各实施例的实现,本申请实施例公开一种文本转3D音频的装置,该装置应用于终端设备,包括:
文本获取模块,用于获取用户选定的待处理文本。
文本处理模块,用于根据所述待处理文本,获取待配音文本。
方位设定模块,用于获取配音发声点与用户头部位置之间的相对方位,所述配音发声点为所述待配音文本的TTS合成音频的空间输出位置。
3D渲染模块,用于根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染。
本申请实施例公开的一种文本转3D音频的装置,通过该装置,针对用户选定的待处理文本,提取待配音文本,然后基于预先设定的配音发声点与用户头部位置之间的相对方位,对待配音文本的TTS合成音频进行3D渲染,得到3D音频。用户通过耳机或音箱听取时,不同配音对象的声音能够按照预设的空间方位传至用户双耳中,使得用户能够真实的感觉到,多个角色正在自己的周围进行话语互动,给用户提供真实的3D环绕感,对待处理文本的理解方式变得生动灵活,而且即使存在音色相近的配音,由于方位不同,也不会使用户产生混淆,避免对文本理解产生误差。
一种实现方式中,所述待配音文本包括旁白文本及每个角色话语文本。所述配音发声点包括旁白发声点及每个角色发声点。
一种实现方式中,所述3D渲染模块包括:
旁白3D渲染单元,用于根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染。
角色3D渲染单元,用于根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染。
一种实现方式中,所述用户头部位置包括用户正脸的水平偏角。
所述旁白发声点与所述用户头部位置之间的相对方位包括:所述旁白发声点相较于所述用户正脸的水平偏移角度。
所述每个角色发声点与所述用户头部位置之间的相对方位包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度。
一种实现方式中,所述旁白3D渲染单元还用于:获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。根据所述第一水平角度差,对所述旁白文本的TTS合成音频进行3D渲染。
通过上述方案,旁白3D渲染单元采用第一水平角度差,对旁白文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。根据所述第二水平角度差,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,角色3D渲染单元采用第二水平角度差,对每个角色话语文本的TTS合成音频进行3D渲染,如此可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度。
一种实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点相较于所述用户头部的俯仰偏移角度。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。根据所述第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还可以将不同角色发声点设置在不同高度,使每个角色发声点具备角色人物的真实高度,提高用户的体验感。
一种实现方式中,所述旁白发声点与所述用户头部位置之间的相对方位还包括旁白发声点距离,所述旁白发声点距离为所述旁白发声点与所述用户双耳连线中心点之间的距离。
所述每个角色发声点与所述用户头部位置之间的相对方位还包括每个角色发声点距离,所述每个角色发声点距离包括所述每个角色发声点与所述用户双耳连线中心点之间的距离。
一种实现方式中,所述旁白3D渲染单元还用于:获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。根据所述第一水平角度差及所述旁白发声点距离,对所述旁白文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高旁白发声点传入用户耳朵中的方位准确度,还能模拟出旁白发声点与用户之间的距离感,提高用户的体验感。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。根据所述第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,还能使每个角色发声点具备角色人物的真实高度,并且模拟出每个角色人物与用户之间的距离感,提高用户的体验感。
一种实现方式中,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点的随机水平偏移角度。
一种实现方式中,所述角色3D渲染单元还用于:获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值。获取第三水平角度和,所述第三水平角度和为所述每个角色发声点的随机水平偏移角度与所述第二水平角度差的和。根据所述第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
通过上述方案,不仅可以避免空间渲染信号产生偏差,提高每个角色发声点传入用户耳朵中的方位准确度,使每个角色发声点具备角色人物的真实高度,模拟出每个角色人物与用户之间的距离感,还能控制每个角色发声点在每个时刻,以用户为中心进行小幅度水平移动,模拟出每个角色人物在说话时的身体晃动感,提高用户的体验感。
一种实现方式中,所述旁白3D渲染单元还用于:根据所述旁白发声点与所述用户头部位置之间的相对方位,获取第一HRTF滤波系数。根据所述第一HRTF滤波系数,对所述旁白文本的TTS合成音频进行3D渲染。
一种实现方式中,所述角色3D渲染单元还用于:根据所述每个角色发声点与所述用户头部位置之间的相对方位,获取第二HRTF滤波系数。根据所述第二HRTF滤波系数,对所述每个角色话语文本的TTS合成音频进行3D渲染。
一种实现方式中,所述装置还包括:头部位置获取模块,用于在获取配音发声点与用户头部位置之间的相对方位之前,获取所述用户头部位置。
一种实现方式中,所述头部位置获取模块还用于:采集用户头部图像。针对所述用户头部图像,获取所述用户头部位置。
一种实现方式中,所述装置还包括:模型预构模块,用于预先构建语义分析神经网络模型。
一种实现方式中,所述文本处理模块还用于:将所述待处理文本输入至所述语义分析神经网络模型中。获取所述语义分析神经网络模型输出的所述待配音文本。
一种实现方式中,所述装置还包括:临时事件获取模块,用于对所述旁白文本进行语义分析,获取临时事件文本。临时音频获取模块,用于获取所述临时事件的TTS合成音频。
通过上述方案,对临时事件文本进行配音,可以提高3D音频的场景真实感,使用户身临其境。
一种实现方式中,所述临时事件获取模块还用于:将所述旁白文本输入至所述语义分析神经网络模型中。获取所述语义分析神经网络模型输出的所述临时事件文本。
相应的,与上述的方法相对应的,本申请实施例还公开一种终端装置,包括:
至少一个处理器和存储器,其中,所述存储器,用于存储程序指令;
所述处理器,用于调用并执行所述存储器中存储的程序指令,以使所述终端装置执行文本转3D音频方法的全部或部分步骤。
本发明实施例的装置可对应于上述文本转3D音频装置,并且,该装置中的处理器等可以实现文本转3D音频装置所具有的功能和/或所实施的各种步骤和方法,为了简洁,在此不再赘述。
需要说明的是,本实施例也可以基于通用的物理服务器结合网络功能虚拟化(英文:Network Function Virtualization,NFV)技术实现的网络设备,所述网络设备为虚拟网络设备(如,虚拟主机、虚拟路由器或虚拟交换机)。所述虚拟网络设备可以是运行有用于发送通告报文功能的程序的虚拟机(英文:Virtual Machine,VM),所述虚拟机部署在硬件设备上(例如,物理服务器)。虚拟机指通过软件模拟的具有完整硬件系统功能的、运行在一个完全隔离环境中的完整计算机系统。本领域技术人员通过阅读本申请即可在通用物理服务器上虚拟出具有上述功能的多个网络设备。此处不再赘述。
具体实现中,本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质包括指令。其中,设置在任意设备中计算机可读介质其在计算机上运行时,可实施包括方法实施例中的全部或部分步骤。所述计算机可读介质的存储介质可为磁碟、光盘、只读存储记忆体(英文:read-only memory,简称:ROM)或随机存储记忆体(英文:random accessmemory,简称:RAM)等。
另外,本申请另一实施例还公开一种包含指令的计算机程序产品,当所述计算机程序产品在电子设备上运行时,使得所述电子设备可实施包括文本转3D音频方法中的全部或部分步骤。
本申请实施例中所描述的各种说明性的逻辑单元和电路可以通过通用处理器,数字信息处理器,专用集成电路(ASIC),现场可编程门阵列(FPGA)或其它可编程逻辑装置,离散门或晶体管逻辑,离散硬件部件,或上述任何组合的设计来实现或操作所描述的功能。通用处理器可以为微处理器,可选地,该通用处理器也可以为任何传统的处理器、控制器、微控制器或状态机。处理器也可以通过计算装置的组合来实现,例如数字信息处理器和微处理器,多个微处理器,一个或多个微处理器联合一个数字信息处理器核,或任何其它类似的配置来实现。
本申请实施例中所描述的方法或算法的步骤可以直接嵌入硬件、处理器执行的软件单元、或者这两者的结合。软件单元可以存储于RAM存储器、闪存、ROM存储器、EPROM存储器、EEPROM存储器、寄存器、硬盘、可移动磁盘、CD-ROM或本领域中其它任意形式的存储媒介中。示例性地,存储媒介可以与处理器连接,以使得处理器可以从存储媒介中读取信息,并可以向存储媒介存写信息。可选地,存储媒介还可以集成到处理器中。处理器和存储媒介可以设置于ASIC中,ASIC可以设置于UE中。可选地,处理器和存储媒介也可以设置于UE中的不同的部件中。
应理解,在本申请的各种实施例中,各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk(SSD))等。
本说明书的各个实施例之间相同相似的部分互相参见即可,每个实施例重点介绍的都是与其他实施例不同之处。尤其,对于装置和系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例部分的说明即可。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例之间相同相似的部分互相参见即可。尤其,对于本申请公开的道路约束确定装置的实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。
Claims (44)
1.一种文本转3D音频的方法,其特征在于,应用于终端设备,所述方法包括:
获取用户选定的待处理文本;
根据所述待处理文本,获取待配音文本;
获取配音发声点与用户头部位置之间的相对方位,所述配音发声点为所述待配音文本的TTS合成音频的空间输出位置;
根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染。
2.根据权利要求1所述的文本转3D音频的方法,其特征在于,所述待配音文本包括旁白文本及每个角色话语文本;
所述配音发声点包括旁白发声点及每个角色发声点。
3.根据权利要求2所述的文本转3D音频的方法,其特征在于,所述根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染,包括:
根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染;
根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染。
4.根据权利要求3所述的文本转3D音频的方法,其特征在于,
所述用户头部位置包括用户正脸的水平偏角;
所述旁白发声点与所述用户头部位置之间的相对方位包括:所述旁白发声点相较于所述用户正脸的水平偏移角度;
所述每个角色发声点与所述用户头部位置之间的相对方位包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度。
5.根据权利要求4所述的文本转3D音频的方法,其特征在于,所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:
获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第一水平角度差,对所述旁白文本的TTS合成音频进行3D渲染。
6.根据权利要求4或5所述的文本转3D音频的方法,其特征在于,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第二水平角度差,对所述每个角色话语文本的TTS合成音频进行3D渲染。
7.根据权利要求4所述的文本转3D音频的方法,其特征在于,
所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点相较于所述用户头部的俯仰偏移角度。
8.根据权利要求7所述的文本转3D音频的方法,其特征在于,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,对所述每个角色话语文本的TTS合成音频进行3D渲染。
9.根据权利要求7所述的文本转3D音频的方法,其特征在于,
所述旁白发声点与所述用户头部位置之间的相对方位还包括旁白发声点距离,所述旁白发声点距离为所述旁白发声点与所述用户双耳连线中心点之间的距离;
所述每个角色发声点与所述用户头部位置之间的相对方位还包括每个角色发声点距离,所述每个角色发声点距离包括所述每个角色发声点与所述用户双耳连线中心点之间的距离。
10.根据权利要求9所述的文本转3D音频的方法,其特征在于,所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:
获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第一水平角度差及所述旁白发声点距离,对所述旁白文本的TTS合成音频进行3D渲染。
11.根据权利要求9或10所述的文本转3D音频的方法,其特征在于,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
12.根据权利要求10所述的文本转3D音频的方法,其特征在于,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点的随机水平偏移角度。
13.根据权利要求12所述的文本转3D音频的方法,其特征在于,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
获取第三水平角度和,所述第三水平角度和为所述每个角色发声点的随机水平偏移角度与所述第二水平角度差的和;
根据所述第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
14.根据权利要求3所述的文本转3D音频的方法,其特征在于,所述根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染,包括:
根据所述旁白发声点与所述用户头部位置之间的相对方位,获取第一HRTF滤波系数;
根据所述第一HRTF滤波系数,对所述旁白文本的TTS合成音频进行3D渲染。
15.根据权利要求3或14所述的文本转3D音频的方法,其特征在于,所述根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染,包括:
根据所述每个角色发声点与所述用户头部位置之间的相对方位,获取第二HRTF滤波系数;
根据所述第二HRTF滤波系数,对所述每个角色话语文本的TTS合成音频进行3D渲染。
16.根据权利要求1所述的文本转3D音频的方法,其特征在于,在获取配音发声点与用户头部位置之间的相对方位之前,所述方法还包括:
获取所述用户头部位置。
17.根据权利要求16所述的文本转3D音频的方法,其特征在于,所述获取用户头部位置,包括:
采集用户头部图像;
针对所述用户头部图像,获取所述用户头部位置。
18.根据权利要求2所述的文本转3D音频的方法,其特征在于,所述方法还包括:
预先构建语义分析神经网络模型。
19.根据权利要求18所述的文本转3D音频的方法,其特征在于,所述根据所述待处理文本,获取待配音文本,包括:
将所述待处理文本输入至所述语义分析神经网络模型中;
获取所述语义分析神经网络模型输出的所述待配音文本。
20.根据权利要求18或19所述的文本转3D音频的方法,其特征在于,所述方法还包括:
对所述旁白文本进行语义分析,获取临时事件文本;
获取所述临时事件的TTS合成音频。
21.根据权利要求20所述的文本转3D音频的方法,其特征在于,所述对所述旁白文本进行语义分析,获取临时事件文本,包括:
将所述旁白文本输入至所述语义分析神经网络模型中;
获取所述语义分析神经网络模型输出的所述临时事件文本。
22.一种文本转3D音频的装置,其特征在于,应用于终端设备,包括:
文本获取模块,用于获取用户选定的待处理文本;
文本处理模块,用于根据所述待处理文本,获取待配音文本;
方位设定模块,用于获取配音发声点与用户头部位置之间的相对方位,所述配音发声点为所述待配音文本的TTS合成音频的空间输出位置;
3D渲染模块,用于根据所述配音发声点与用户头部位置之间的相对方位,对所述待配音文本的TTS合成音频进行3D渲染。
23.根据权利要求22所述的文本转3D音频的装置,其特征在于,所述待配音文本包括旁白文本及每个角色话语文本;
所述配音发声点包括旁白发声点及每个角色发声点。
24.根据权利要求23所述的文本转3D音频的装置,其特征在于,所述3D渲染模块包括:
旁白3D渲染单元,用于根据所述旁白发声点与所述用户头部位置之间的相对方位,对所述旁白文本的TTS合成音频进行3D渲染;
角色3D渲染单元,用于根据所述每个角色发声点与所述用户头部位置之间的相对方位,对所述每个角色话语文本的TTS合成音频进行3D渲染。
25.根据权利要求24所述的文本转3D音频的装置,其特征在于,
所述用户头部位置包括用户正脸的水平偏角;
所述旁白发声点与所述用户头部位置之间的相对方位包括:所述旁白发声点相较于所述用户正脸的水平偏移角度;
所述每个角色发声点与所述用户头部位置之间的相对方位包括:所述每个角色发声点相较于所述用户正脸的水平偏移角度。
26.根据权利要求25所述的文本转3D音频的装置,其特征在于,所述旁白3D渲染单元还用于:
获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第一水平角度差,对所述旁白文本的TTS合成音频进行3D渲染。
27.根据权利要求25或26所述的文本转3D音频的装置,其特征在于,所述角色3D渲染单元还用于:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第二水平角度差,对所述每个角色话语文本的TTS合成音频进行3D渲染。
28.根据权利要求25所述的文本转3D音频的装置,其特征在于,
所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点相较于所述用户头部的俯仰偏移角度。
29.根据权利要求28所述的文本转3D音频的装置,其特征在于,所述角色3D渲染单元还用于:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第二水平角度差及所述每个角色发声点相较于所述用户头部的俯仰偏移角度,对所述每个角色话语文本的TTS合成音频进行3D渲染。
30.根据权利要求28所述的文本转3D音频的装置,其特征在于,
所述旁白发声点与所述用户头部位置之间的相对方位还包括旁白发声点距离,所述旁白发声点距离为所述旁白发声点与所述用户双耳连线中心点之间的距离;
所述每个角色发声点与所述用户头部位置之间的相对方位还包括每个角色发声点距离,所述每个角色发声点距离包括所述每个角色发声点与所述用户双耳连线中心点之间的距离。
31.根据权利要求30所述的文本转3D音频的装置,其特征在于,所述旁白3D渲染单元还用于:
获取第一水平角度差,所述第一水平角度差为所述旁白发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第一水平角度差及所述旁白发声点距离,对所述旁白文本的TTS合成音频进行3D渲染。
32.根据权利要求30或31所述的文本转3D音频的装置,其特征在于,所述角色3D渲染单元还用于:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
根据所述第二水平角度差、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
33.根据权利要求31所述的文本转3D音频的装置,其特征在于,所述每个角色发声点与所述用户头部位置之间的相对方位还包括:所述每个角色发声点的随机水平偏移角度。
34.根据权利要求33所述的文本转3D音频的装置,其特征在于,所述角色3D渲染单元还用于:
获取第二水平角度差,所述第二水平角度差为所述每个角色发声点相较于所述用户正脸的水平偏移角度与所述用户正脸的水平偏角之间的差值;
获取第三水平角度和,所述第三水平角度和为所述每个角色发声点的随机水平偏移角度与所述第二水平角度差的和;
根据所述第三水平角度和、所述每个角色发声点相较于所述用户头部的俯仰偏移角度及所述每个角色发声点距离,对所述每个角色话语文本的TTS合成音频进行3D渲染。
35.根据权利要求24所述的文本转3D音频的装置,其特征在于,所述旁白3D渲染单元还用于:
根据所述旁白发声点与所述用户头部位置之间的相对方位,获取第一HRTF滤波系数;
根据所述第一HRTF滤波系数,对所述旁白文本的TTS合成音频进行3D渲染。
36.根据权利要求24或35所述的文本转3D音频的装置,其特征在于,所述角色3D渲染单元还用于:
根据所述每个角色发声点与所述用户头部位置之间的相对方位,获取第二HRTF滤波系数;
根据所述第二HRTF滤波系数,对所述每个角色话语文本的TTS合成音频进行3D渲染。
37.根据权利要求22所述的文本转3D音频的装置,其特征在于,所述装置还包括:
头部位置获取模块,用于在获取配音发声点与用户头部位置之间的相对方位之前,获取所述用户头部位置。
38.根据权利要求37所述的文本转3D音频的装置,其特征在于,所述头部位置获取模块还用于:
采集用户头部图像;
针对所述用户头部图像,获取所述用户头部位置。
39.根据权利要求23所述的文本转3D音频的装置,其特征在于,所述装置还包括:
模型预构模块,用于预先构建语义分析神经网络模型。
40.根据权利要求39所述的文本转3D音频的装置,其特征在于,所述文本处理模块还用于:
将所述待处理文本输入至所述语义分析神经网络模型中;
获取所述语义分析神经网络模型输出的所述待配音文本。
41.根据权利要求39或40所述的文本转3D音频的装置,其特征在于,所述装置还包括:
临时事件获取模块,用于对所述旁白文本进行语义分析,获取临时事件文本;
临时音频获取模块,用于获取所述临时事件的TTS合成音频。
42.根据权利要求41所述的文本转3D音频的装置,其特征在于,所述临时事件获取模块还用于:
将所述旁白文本输入至所述语义分析神经网络模型中;
获取所述语义分析神经网络模型输出的所述临时事件文本。
43.一种终端装置,其特征在于,包括:
至少一个处理器和存储器;
所述存储器,用于存储程序指令;
所述处理器,用于调用并执行所述存储器中存储的程序指令,以使所述终端装置执行如权利要求1-21任一项所述的文本转3D音频的方法。
44.一种计算机可读存储介质,其特征在于,
所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得所述计算机执行如权利要求1-21任一项所述的文本转3D音频的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110604193.1A CN113903325B (zh) | 2021-05-31 | 2021-05-31 | 文本转3d音频的方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110604193.1A CN113903325B (zh) | 2021-05-31 | 2021-05-31 | 文本转3d音频的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113903325A true CN113903325A (zh) | 2022-01-07 |
CN113903325B CN113903325B (zh) | 2022-10-18 |
Family
ID=79187476
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110604193.1A Active CN113903325B (zh) | 2021-05-31 | 2021-05-31 | 文本转3d音频的方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113903325B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0627728A1 (en) * | 1993-06-04 | 1994-12-07 | International Business Machines Corporation | Method and system for providing an apparent spatial position to a synthesized voice |
FR2807188A1 (fr) * | 2000-03-30 | 2001-10-05 | Vrtv Studios | Equipement pour production automatique en temps reel de sequences audiovisuelles virtuelles a partir d'un message textuel et pour la diffusion de telles sequences |
WO2007049282A2 (en) * | 2005-10-26 | 2007-05-03 | Cortica Ltd. | A computing device, a system and a method for parallel processing of data streams |
TW200727065A (en) * | 2006-01-03 | 2007-07-16 | Jung-Tang Huang | An interactive system platform of display by eyes view |
KR20090112882A (ko) * | 2008-04-25 | 2009-10-29 | 목포대학교산학협력단 | 텍스트 투 스피치와 토킹해드를 이용한 멀티미디어 자료제공서비스 |
CN101295504B (zh) * | 2007-04-28 | 2013-03-27 | 诺基亚公司 | 用于仅文本的应用的娱乐音频 |
CN107182021A (zh) * | 2017-05-11 | 2017-09-19 | 广州创声科技有限责任公司 | Vr电视中的动态空间虚拟声处理系统及处理方法 |
CN108616789A (zh) * | 2018-04-11 | 2018-10-02 | 北京理工大学 | 基于双耳实时测量的个性化虚拟音频回放方法 |
CN109891502A (zh) * | 2016-06-17 | 2019-06-14 | Dts公司 | 使用近/远场渲染的距离摇移 |
CN110892735A (zh) * | 2017-07-31 | 2020-03-17 | 华为技术有限公司 | 一种音频处理方法以及音频处理设备 |
CN112270920A (zh) * | 2020-10-28 | 2021-01-26 | 北京百度网讯科技有限公司 | 一种语音合成方法、装置、电子设备和可读存储介质 |
CN112820265A (zh) * | 2020-09-14 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 一种语音合成模型训练方法和相关装置 |
-
2021
- 2021-05-31 CN CN202110604193.1A patent/CN113903325B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0627728A1 (en) * | 1993-06-04 | 1994-12-07 | International Business Machines Corporation | Method and system for providing an apparent spatial position to a synthesized voice |
FR2807188A1 (fr) * | 2000-03-30 | 2001-10-05 | Vrtv Studios | Equipement pour production automatique en temps reel de sequences audiovisuelles virtuelles a partir d'un message textuel et pour la diffusion de telles sequences |
WO2007049282A2 (en) * | 2005-10-26 | 2007-05-03 | Cortica Ltd. | A computing device, a system and a method for parallel processing of data streams |
TW200727065A (en) * | 2006-01-03 | 2007-07-16 | Jung-Tang Huang | An interactive system platform of display by eyes view |
CN101295504B (zh) * | 2007-04-28 | 2013-03-27 | 诺基亚公司 | 用于仅文本的应用的娱乐音频 |
KR20090112882A (ko) * | 2008-04-25 | 2009-10-29 | 목포대학교산학협력단 | 텍스트 투 스피치와 토킹해드를 이용한 멀티미디어 자료제공서비스 |
CN109891502A (zh) * | 2016-06-17 | 2019-06-14 | Dts公司 | 使用近/远场渲染的距离摇移 |
CN107182021A (zh) * | 2017-05-11 | 2017-09-19 | 广州创声科技有限责任公司 | Vr电视中的动态空间虚拟声处理系统及处理方法 |
CN110892735A (zh) * | 2017-07-31 | 2020-03-17 | 华为技术有限公司 | 一种音频处理方法以及音频处理设备 |
CN108616789A (zh) * | 2018-04-11 | 2018-10-02 | 北京理工大学 | 基于双耳实时测量的个性化虚拟音频回放方法 |
CN112820265A (zh) * | 2020-09-14 | 2021-05-18 | 腾讯科技(深圳)有限公司 | 一种语音合成模型训练方法和相关装置 |
CN112270920A (zh) * | 2020-10-28 | 2021-01-26 | 北京百度网讯科技有限公司 | 一种语音合成方法、装置、电子设备和可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113903325B (zh) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102361389B1 (ko) | 안면 구조에 기초한 음성 합성 방법 및 장치 | |
CN111564152B (zh) | 语音转换方法、装置、电子设备及存储介质 | |
CN110322760B (zh) | 语音数据生成方法、装置、终端及存储介质 | |
US20230360634A1 (en) | Text data processing method and apparatus | |
WO2022033556A1 (zh) | 电子设备及其语音识别方法和介质 | |
CN110992927B (zh) | 音频生成方法、装置、计算机可读存储介质及计算设备 | |
CN114242037A (zh) | 一种虚拟人物生成方法及其装置 | |
CN112116904A (zh) | 语音转换方法、装置、设备及存储介质 | |
CN113593608B (zh) | 基于对象识别的美音方法、电子设备及存储介质 | |
CN113297843B (zh) | 指代消解的方法、装置及电子设备 | |
CN111048109A (zh) | 声学特征的确定方法、装置、计算机设备及存储介质 | |
CN114356109A (zh) | 文字输入方法、电子设备及计算机可读存储介质 | |
CN113903325B (zh) | 文本转3d音频的方法及装置 | |
CN113506566B (zh) | 声音检测模型训练方法、数据处理方法以及相关装置 | |
CN115641867A (zh) | 语音处理方法和终端设备 | |
CN114822543A (zh) | 唇语识别方法、样本标注方法、模型训练方法及装置、设备、存储介质 | |
CN115841814A (zh) | 语音交互方法及电子设备 | |
CN113299309A (zh) | 语音翻译方法及装置、计算机可读介质和电子设备 | |
CN116665643B (zh) | 韵律标注方法、装置和终端设备 | |
CN114238554A (zh) | 一种文本标注提取方法 | |
WO2021238338A1 (zh) | 语音合成方法及装置 | |
CN116052648B (zh) | 一种语音识别模型的训练方法、使用方法及训练系统 | |
CN116030817B (zh) | 语音唤醒方法、设备及存储介质 | |
CN113823278B (zh) | 语音识别方法、装置、电子设备及存储介质 | |
WO2023006001A1 (zh) | 视频处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220610 Address after: 100095 floors 2-14, building 3, yard 5, honeysuckle Road, Haidian District, Beijing Applicant after: Beijing Honor Device Co.,Ltd. Address before: Unit 3401, unit a, building 6, Shenye Zhongcheng, No. 8089, Hongli West Road, Donghai community, Xiangmihu street, Futian District, Shenzhen, Guangdong 518040 Applicant before: Honor Device Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |