CN118045358A - 游戏音频处理方法、游戏音频处理装置、电子设备、介质 - Google Patents
游戏音频处理方法、游戏音频处理装置、电子设备、介质 Download PDFInfo
- Publication number
- CN118045358A CN118045358A CN202410346995.0A CN202410346995A CN118045358A CN 118045358 A CN118045358 A CN 118045358A CN 202410346995 A CN202410346995 A CN 202410346995A CN 118045358 A CN118045358 A CN 118045358A
- Authority
- CN
- China
- Prior art keywords
- data
- game
- target
- audio
- attribute information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 187
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 43
- 238000012549 training Methods 0.000 claims description 56
- 238000001514 detection method Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 abstract description 2
- 230000000875 corresponding effect Effects 0.000 description 71
- 230000000694 effects Effects 0.000 description 24
- 230000008569 process Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000008451 emotion Effects 0.000 description 7
- 238000002372 labelling Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 230000036651 mood Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013075 data extraction Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011895 specific detection Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Electrically Operated Instructional Devices (AREA)
Abstract
本公开提供了一种游戏音频处理方法、游戏音频处理装置、电子设备及计算机可读存储介质,属于人机交互技术领域。该方法包括:获取虚拟角色可穿戴的目标游戏皮肤的属性信息;根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据;所述待处理数据包括音频数据和/或文本数据;所述目标音频数据用于在所述虚拟角色穿戴所述目标游戏皮肤的情况下播放。本公开可以在虚拟角色穿戴目标游戏皮肤时,播放与目标游戏皮肤对应的目标音频数据。
Description
技术领域
本公开涉及人机交互技术领域,尤其涉及一种游戏音频处理方法、游戏音频处理装置、电子设备及计算机可读存储介质。
背景技术
随着网络游戏的发展,为了满足不同玩家的游戏需求,游戏内为虚拟角色提供了可以穿戴不同游戏皮肤的功能,玩家可以通过对虚拟角色更换游戏皮肤,改变虚拟角色的外貌、增加虚拟角色的技能或展示虚拟角色的技能释放动画等。游戏内不同虚拟角色的游戏皮肤种类和数量随着游戏不断运营会不断扩展和增加,现有技术中,不同的虚拟角色对应播放的音频数据通常不会具有较大差异,相同虚拟角色穿戴不同游戏皮肤时,其所播放的音频数据也往往不会发生变化。然而,虚拟角色在穿戴不同游戏皮肤时,通常具有不同的外观特点,播放相同的音频数据无法从音效上对不同外观的游戏皮肤予以区分,为玩家提供个性化且呼应的听觉体验,容易造成玩家视听疲累。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开提供了一种游戏音频处理方法、游戏音频处理装置、电子设备及计算机可读存储介质,进而至少在一定程度上克服现有技术中游戏中虚拟角色音频播放单调的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种游戏音频处理方法,包括:获取虚拟角色可穿戴的目标游戏皮肤的属性信息;根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据;所述待处理数据包括音频数据和/或文本数据;所述目标音频数据用于在所述虚拟角色穿戴所述目标游戏皮肤的情况下播放。
在本公开的一种示例性实施例中,所述方法还包括:获取多个游戏皮肤对应的第一样本语音数据;基于所述第一样本语音数据提取样本音频特征数据;通过所述多个游戏皮肤对应的样本音频特征数据分别训练所述多个候选语音处理模型。
在本公开的一种示例性实施例中,所述方法还包括:提取所述多个游戏皮肤的属性信息,并建立所述游戏皮肤的属性信息与所述候选语音处理模型之间的对应关系。
在本公开的一种示例性实施例中,所述方法还包括:获取所述第一样本语音数据对应的标签;所述通过所述多个游戏皮肤对应的样本音频特征数据分别训练多个待训练的语音处理模型,包括:通过所述多个游戏皮肤对应的样本音频特征数据以及所述标签分别训练多个待训练的语音处理模型。
在本公开的一种示例性实施例中,所述通过所述多个游戏皮肤对应的样本音频特征数据分别训练所述多个候选语音处理模型,包括:利用所述样本音频特征数据和所述候选语音处理模型处理第二样本数据,得到第三样本语音数据;利用判别模型判别所述第三样本语音数据是否为真实语音数据,若判别所述第三样本语音数据不是真实语音数据,则调整所述候选语音处理模型的参数。
在本公开的一种示例性实施例中,所述获取虚拟角色可穿戴的目标游戏皮肤的属性信息,包括:响应于检测到所述虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为所述目标游戏皮肤,获取所述目标游戏皮肤的属性信息。
在本公开的一种示例性实施例中,所述响应于检测到所述虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为所述目标游戏皮肤,获取所述目标游戏皮肤的属性信息,包括:响应于在游戏引擎中检测到所述虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为所述目标游戏皮肤,在音频引擎中通过所述游戏引擎的接口获取所述目标游戏皮肤的属性信息;所述根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型,包括:在所述音频引擎中,根据所述目标游戏皮肤的属性信息,从所述音频引擎中嵌入的预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;所述通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据,包括:在所述音频引擎中,通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据。
根据本公开的一个方面,提供一种游戏音频处理装置,包括:属性信息获取模块,用于获取虚拟角色可穿戴的目标游戏皮肤的属性信息;处理模型确定模块,用于根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;目标音频获得模块,用于通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据;所述待处理数据包括音频数据和/或文本数据;所述目标音频数据用于在所述虚拟角色穿戴所述目标游戏皮肤的情况下播放。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本公开的示例性实施例具有以下有益效果:
获取虚拟角色可穿戴的目标游戏皮肤的属性信息;根据目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型;通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据;待处理数据包括音频数据和/或文本数据;目标音频数据用于在虚拟角色穿戴目标游戏皮肤的情况下播放。一方面,本示例性实施例提供了一种新的游戏音频处理方法,其能够在虚拟角色穿戴目标游戏皮肤时,播放由目标游戏皮肤对应的目标语音处理模型处理后的目标音频数据,而该目标音频数据与目标游戏皮肤具有对应关系,使得虚拟角色在穿戴不同游戏皮肤时,可以播放个性化的音频数据,由此提高了虚拟角色穿戴不同游戏皮肤的个性化差异,且通过播放差异化音频数据还能够增强各个游戏皮肤的性格特点,为玩家提供丰富、多样的游戏体验;另一方面,本示例性实施例通过确定的目标游戏皮肤的属性信息,从多个候选语音处理模型中选择对应的目标语音处理模型对待处理数据进行处理,处理流程便捷,且能够得到准确、有效的目标音频数据进行播放,在不同的终端设备中都能够得到较好的应用,应用范围广泛。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本示例性实施例中一种游戏音频处理方法的流程图;
图2示意性示出本示例性实施例中一种游戏音频处理方法的子流程图;
图3示意性示出本示例性实施例中另一种游戏音频处理方法的子流程图;
图4示意性示出本示例性实施例中一种游戏音频处理装置的结构框图;
图5示意性示出本示例性实施例中一种用于实现上述方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
本公开的示例性实施例首先提供了一种游戏音频处理方法。下面结合附图1对本示例性实施例做进一步说明,如图1所示,游戏音频处理方法可以包括以下步骤S110~S130:
步骤S110,获取虚拟角色可穿戴的目标游戏皮肤的属性信息。
其中,虚拟角色是指游戏程序或动画中活动的虚拟对象,例如玩家操控的游戏角色等。游戏皮肤是指能够改变虚拟角色外观,使其呈现特定显示形态的游戏元素,例如可以改变虚拟角色外貌的服装、装备、具有技能释放特效的可穿戴组件或其他能够播放特效动画的元素等,游戏皮肤通常可以在游戏商城、游戏任务中获取,也可以由系统或游戏触发事件赠送,还可以通过其他特定方式得到等。当虚拟角色穿戴游戏皮肤后,可以改变虚拟角色的外貌状态,例如由“蓝色铠甲”的服饰更换为“白色长袍”的服饰,但是穿戴游戏皮肤一般不会影响虚拟角色的能力或游戏机制。当游戏皮肤具备一定的技能或功能时,穿戴游戏皮肤还可以为虚拟角色增加技能属性、能力等级或播放特定的动画效果等。不同的游戏皮肤可以具有不同的形态,例如不同性别的游戏角色、不同成长类型的游戏角色可以具有多种不同的游戏皮肤,不同的游戏皮肤可以是风格、颜色、特殊效果、动画特效展示或声音效果具有差异等,玩家还可以根据其喜好或偏爱为同一虚拟角色更换不同的游戏皮肤等。通过为虚拟角色穿戴不同的游戏皮肤,可以为虚拟角色增加个性化和独特性,或为玩家提供收集或展示的需求。
在本示例性实施例中,目标游戏皮肤可以是指当前虚拟角色即将穿戴的游戏皮肤、当前穿戴的游戏皮肤、预期穿戴的游戏皮肤或者玩家选择确定要穿戴的游戏皮肤等。不同的游戏皮肤可以对应不同的属性信息,该属性信息可以包括用于指示游戏皮肤的标识符、名称或其他特征数据等中的一种或多种组合。本示例性实施例中,当确定虚拟角色可穿戴的目标游戏皮肤时,可以获取该目标游戏皮肤的属性信息,以便于基于该属性信息获取目标游戏皮肤对应的语音处理模型。
步骤S120,根据目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型。
语音处理模型是指用于对文本数据或语音数据进行处理,生成特定声音效果语音数据的机器学习模型,该特定效果可以包括语音的音调、速度、语气、情绪变化等等。在本示例性实施例中,为了使虚拟角色在穿戴不同游戏皮肤时,播放出与其所穿戴的游戏皮肤外观属性相匹配的声音,可以为不同的游戏皮肤预先训练对应的候选语音处理模型,以使虚拟角色在穿戴不同的游戏皮肤时,能够输出与游戏皮肤对应的个性化声音效果的音频数据,符合虚拟角色游戏皮肤特点的同时,增加穿戴不同游戏皮肤的个性化体验。
因此,在本示例性实施例中,当获取目标游戏皮肤的属性信息时,可以根据该属性信息,从预先训练的多个候选语音处理模型中确定出与目标游戏皮肤的属性信息对应的目标语音处理模型。其中,目标语音处理模型的确定方式可以包括多种,例如可以预先为属性信息和语音处理模型设置映射关系,也可以基于预先配置的匹配规则等,进一步,通过映射关系或匹配规则等,查找目标游戏皮肤的属性信息匹配的目标语音处理模型等。
步骤S130,通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据;待处理数据包括音频数据和/或文本数据;目标音频数据用于在虚拟角色穿戴目标游戏皮肤的情况下播放。
最后,通过目标语音处理模型对虚拟角色待处理数据进行处理,可以得到目标音频数据,该目标音频数据是指具有与目标游戏皮肤具有匹配声音效果的音频数据,例如当虚拟角色穿戴的目标游戏皮肤为中年男性的游戏皮肤,而该游戏皮肤对应阴沉、阴郁、语速适中的特点,经过该目标游戏皮肤对应的目标语音处理模型处理待处理数据后,可以得到阴沉、阴郁、语速适中的目标音频数据,并在虚拟角色穿戴该游戏皮肤的情况下,输出这一声音特点的目标音频数据。
在本示例性实施例中,待处理数据可以包括音频数据和/或文本数据,其中,音频数据可以是玩家录入的音频数据,也可以是预先存储的音频数据或者网络下载的音频数据等,也即通过目标语音处理模型可以将这些音频数据处理为特定音效的目标音频数据,并播放;文本数据可以是玩家输入的文本数据,例如玩家在游戏对话框中输入对队友或其他玩家要说的文本数据,目标语音处理模型可以对该文本数据进行处理生成目标音频数据,并在虚拟角色穿戴目标游戏皮肤的情况下,播放该目标音频数据,以将文本数据通过音频的方式传达给队友或其他玩家等,另外,文本数据也可以是游戏角色预先设定的台词数据、剧情数据、触发数据或从其他文本数据库中调用获取的文本数据等,本公开对此不做具体限定。
基于上述说明,在本示例性实施例中,获取虚拟角色可穿戴的目标游戏皮肤的属性信息;根据目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型;通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据;待处理数据包括音频数据和/或文本数据;目标音频数据用于在虚拟角色穿戴目标游戏皮肤的情况下播放。一方面,本示例性实施例提供了一种新的游戏音频处理方法,其能够在虚拟角色穿戴目标游戏皮肤时,播放由目标游戏皮肤对应的目标语音处理模型处理后的目标音频数据,而该目标音频数据与目标游戏皮肤具有对应关系,使得虚拟角色在穿戴不同游戏皮肤时,可以播放个性化的音频数据,由此提高了虚拟角色穿戴不同游戏皮肤的个性化差异,且通过播放差异化音频数据还能够增强各个游戏皮肤的性格特点,为玩家提供丰富、多样的游戏体验;另一方面,本示例性实施例通过确定的目标游戏皮肤的属性信息,从多个候选语音处理模型中选择对应的目标语音处理模型对待处理数据进行处理,处理流程便捷,且能够得到准确、有效的目标音频数据进行播放,在不同的终端设备中都能够得到较好的应用,应用范围广泛。
在一示例性实施例中,如图2所示,上述游戏音频处理方法还可以包括以下步骤:
步骤S210,获取多个游戏皮肤对应的第一样本语音数据;
步骤S220,基于第一样本语音数据提取样本音频特征数据;
步骤S230,通过多个游戏皮肤对应的样本音频特征数据分别训练多个候选语音处理模型。
其中,第一样本语音数据是指用于训练各个游戏皮肤对应的语音处理模型的训练数据,不同游戏皮肤的语音处理模型可以对应不同的第一样本语音数据。与游戏皮肤对应的第一样本语音数据需要与游戏皮肤的特点相呼应,例如第一样本语音数据需要具有与游戏皮肤性格或外观等相符的语调、音色、音速、语气等。然后,基于第一样本语音数据中的样本音频特征数据,训练游戏皮肤对应的候选音效处理模型,其中,样本音频特征数据是指能够反映音频数据特征的数据,例如梅尔频谱系数、音频能量、基音频率,或者其他音频描述数据等等。不同的游戏皮肤可以利用其对应的第一样本语音数据,训练一候选语音处理模型。
在本示例性实施例中,样本音频特征数据提取,可以通过使用音频处理库或特征提取工具等方式实现,例如基于特征提取算法或预训练的特征提取模型从第一样本语音数据中提取梅尔频谱系数、音频能量、基音频率等。通过从第一样本语音数据中提取样本音频特征数据,可以将语音信号转化为更具代表性和可计算性的向量形式等,以为候选语音处理模型的训练和转换提供输入或处理数据。
在获取每个游戏皮肤对应的第一样本语音数据时,本示例性实施例可以先确定每个游戏皮肤对应的第一样本语音数据的数量和种类,例如需要获取多少数量的第一样本语音数据,或者获取什么情绪场景下、什么剧情场景下、什么技能对应的语音数据等,并准备一系列相似种类的台词等语音数据等,例如虚拟角色的常用语句、技能发动语句、专用名词等各种类型和语气的语音数据。为了保证各个游戏皮肤对应的语音处理模型处理音频数据的全面性和准确性,在获取第一样本语音数据时,需要确保每个语音数据都涵盖了不同的语调和音色要求,且包含与特定声线效果相关的特征,以便后续训练候选语音处理模型时可以从中提取相关特征,保证在后续的模型训练结果足够精准。以一个游戏皮肤对应10句原始语音数据的数量为例,具体在获取第一样本语音数据时,可以基于这10句原始语音数据录制至少20句第一样本语音数据,为达到最优结果还可以录制100句以上语音数据作为第一样本语音数据等。
第一样本语音数据可以通过专业的配音人员录制得到,在录制过程中,需要准备录音设备和合适的录音环境。选择高质量的录音设备,如专业麦克风,确保录制的声音清晰可辨。同时,为了保证录音的质量,需要选择一个相对安静的环境,减少背景噪音的干扰,并确保声音的一致性和准确性。可以通过提供参考音频,或者由专业配音演员进行录制,以确保每个样本都能达到预期的声音效果。
在一示例性实施例中,上述游戏音频处理方法还可以包括:
获取第一样本语音数据对应的标签;
进一步,上述步骤S230,可以包括:
通过多个游戏皮肤对应的样本音频特征数据以及标签分别训练多个待训练的语音处理模型。
为了便于对第一样本语音数据进行管理,也为了保证模型训练的有效性和准确性,在获取第一样本语音数据时,还可以对应获取第一样本语音数据对应的标签,该标签是指能够反映语音数据特点的属性数据,其可以是第一样本语音数据的属性标签,也可以是第一样本语音数据的情绪分类标签等,例如语音数据属于哪一场景(如剧情、战斗等)下的数据、语音数据对应的情绪状态(如情绪激昂、情绪平静等)、语气标签(如语气柔和、语气生气等)或者台词标签等。
在本示例性实施例中,录制完成第一样本语音数据后,可以使用专门的标注系统或已有的通用的音频编辑软件,对第一样本语音数据进行标注和分类,以确定第一样本语音数据的标签,具体可以是,依次播放每个第一样本语音数据,并根据其声音特征和角色皮肤属性进行剪辑和标记。其中,剪辑可以是过滤不符合要求的语音数据,例如剧情语音数据中包括战斗语音数据时,将剧情语音数据中的战斗语音数据去除等,标记则可以是对第一样本语音数据进行具体的标注。本示例性实施例可以使用标注工具提供的标签或标注功能,将每个第一样本语音数据与其对应的游戏皮肤和声线效果进行关联。最后,将标注和分类后的第一样本语音数据保存,并将其与之前收集的原始语音数据相对应。确保建立了第一样本语音数据与游戏皮肤的关联,并为后续的候选语音处理模型的训练提供有标记的训练数据。进而,可以从不同游戏皮肤对应的第一样本语音数据中提取样本音频特征数据,然后,通过多个游戏皮肤对应的样本音频特征数据以及标签分别训练多个待训练的语音处理模型。
表1示出了一种不同游戏皮肤对应不同标签分类下第一样本语音数据的数量的参照表,如下表所示:
表1
上表以三个游戏皮肤的语音标注整理方案为例,示例性示出了游戏皮肤与采集第一样本语音数据具体情况。默认游戏皮肤可以根据游戏内实际需要使用的台词语音进行录制语音,A级游戏皮肤和S级游戏皮肤可以录制默认游戏皮肤对应台词语音数量的10倍台词数量的语音数据作为其第一样本语音数据,以供训练候选语音处理模型。
在获取第一样本语音数据及其标签后,本示例性实施例还可以对其进行预处理,具体的,可以使用音频编辑软件或专业的音频处理工具对标注和分类后的第一样本语音数据进行预处理,去除背景噪音和杂音,使得第一样本语音数据更加清晰可辨。另外,还可以对第一样本语音数据进行音频格式转换,以将语音数据转换为统一的音频格式,确保转换后的音频文件与后续处理和模型训练所需的格式相匹配,保证数据的一致性和可用性。
在本示例性实施例中,可以通过多种方式训练候选语音处理模型,具体而言,可以将具有标签的第一样本语音数据作为候选语音处理模型的输入数据,使候选语音处理模型学习第一样本语音数据的样本音频特征数据,以在模型应用阶段,对待处理数据进行处理时,可以将学习到的音频特征与待处理数据进行融合,生成具备特定音效的目标音频数据;也可以将样本音频特征数据与样本待处理数据输入待训练的候选语音处理模型中,根据输出音频数据与第一样本语音数据的音频特征之间的差异,调整模型参数,以训练候选语音处理模型;还可以将具有标签的第一样本语音数据和待处理的第二样本数据共同作为候选语音处理模型的输入数据,使候选语音处理模型从第一样本语音数据中提取样本音频特征数据,并对第二样本数据进行处理,以实现特征融合和音频转化的过程,得到输出的音频数据。
具体的,在一示例性实施例中,上述步骤S230,可以包括:
利用样本音频特征数据和候选语音处理模型处理第二样本数据,得到第三样本语音数据;
利用判别模型判别第三样本语音数据是否为真实语音数据,若判别第三样本语音数据不是真实语音数据,则调整候选语音处理模型的参数。
在本示例性实施例中,第一样本语音数据是指预先配置的具有对应标签的样本数据,可以认为其是训练过程中输入的参考语音数据,例如提前按照情绪分类、场景分类等标签录制的样本语音数据等,第二样本数据是指训练过程中的待处理样本数据,其可以是文本数据也可以是语音数据。模型训练时,可以将第一样本语音数据和第二样本数据输入待训练的候选语音处理模型中,候选语音处理模型通过对第一样本语音数据进行处理,可以提取样本音频特征数据并进行学习,然后,利用样本音频特征数据对第二样本数据进行处理,并根据输出结果调整候选语音处理模型的参数,以得到训练完成的候选语音处理模型。当候选语音处理模型训练完成时,可以对待处理数据进行处理,并将训练过程中学习到的游戏皮肤对应的音频特征与输入的待处理数据进行合成或融合,使生成的目标语音数据与待处理数据具有相同的内容,且具有游戏皮肤对应的音频特征。
为了学习和提取不同声音效果的音频特征,本示例性实施例可以选择使用隐马尔可夫模型(Hidden Markov Model,HMM)和/或深度学习模型(如TensorFlow、PyTorch等)构建相应的模型,例如可以采用循环神经网络(Recurrent Neural Network,RNN)或卷积神经网络(Convolutional Neural Network,CNN)。这些模型能够学习不同角色皮肤的语音特征,并生成相应的候选语音处理模型。
本示例性实施例还可以选择生成对抗网络(Generative Adversarial Network,GAN)作为模型架构,用于对待处理数据进行处理生成目标音频数据。另外,还可以设置判别模型,用于判断生成的目标音频数据是否真实,以保证目标音频数据播放的视听效果。在模型训练阶段,利用第一样本语音数据的样本音频特征数据和候选语音处理模型处理第二样本数据,可以得到输出的第三样本语音数据,该第三样本语音数据为模型训练阶段输出的音频数据,通过对第三样本语音数据的真实性进行判别,可以进一步调整候选语音处理模型的参数,完成候选语音处理模型的训练与调优。
在选择模型架构时需要考虑数据的数量、质量和多样性对模型的训练和泛化能力的影响。如果数据量较小,可以使用迁移学习或数据增强等方法来提升模型性能。根据收集到的语音数据的特点和规模,选择适合的模型架构和相应的训练策略。另外,根据模型架构的不同,还可以自定义确定模型的网络结构、层数、激活函数等。
在本示例性实施例中,使用标注和分类后的样本语音数据进行模型训练时,可以先对样本数据集进行训练集与验证集的划分,具体的,可以使用80%的样本数据作为训练集,使用20%的样本数据作为验证集。划分时需要确保样本数据集的分布均衡和代表性,以避免过拟合和欠拟合问题。对于模型的参数初始化,可以选择随机初始化或使用预训练模型进行初始化,初始化的方式根据模型架构的特点进行选择。
根据数据情况,本示例性实施例可以选择适当的训练方法,例如监督学习、无监督学习或半监督学习算法等。同时,根据实验情况还可以调整模型的超参数,如学习率、批量大小、网络层数等。
模型训练时,可以将训练集输入模型中,计算损失函数并进行反向传播,更新模型的参数,并使用优化算法,如SGD(Stochastic Gradient Descent,随机梯度下降)或Adam(AdaptiveMomentEstimation,自适应矩估计算法)来进行训练。训练过程,可以根据训练集的大小和模型的复杂度来确定合适的训练轮数。通过反复的训练和参数调整,可以提高模型的性能和泛化能力,使其适应不同的语音处理或转换任务。
另外,根据模型在验证集上的性能表现,本示例性实施例还可以对模型进行优化和改进,例如调整模型的参数、引入正则化技术、增加训练数据等方法,以进一步改进模型的性能和效果。同时,还使用不同的数据增强方法或迁移学习等技术,来提高模型的泛化能力和准确度。通过不断迭代训练过程,优化模型的参数和超参数,逐步提升模型的性能和准确度。
最后,还对训练集和验证集进行交叉验证,以确保模型的泛化能力和鲁棒性。模型训练是一个迭代的过程,需要不断地调整和优化模型,以达到最佳的性能和准确度。根据实际情况,可以进行多次训练和评估,逐步改进模型的性能,直到满足需求为止。通过模型优化和改进,可以提高转换后语音的质量和自然度。
在模型训练完成后,还需要对模型进行评估和测试。首先,可以使用验证集来评估模型的性能和泛化能力。通过计算模型在验证集上的损失值和准确率等指标,来评估模型的表现。如果模型的性能不满足要求,可以回到模型训练阶段进行调整和优化。
然后,使用测试集对模型进行测试。测试集是模型没有处理过的数据,用于评估模型在真实场景下的表现。通过计算模型在测试集上的指标,如准确率、召回率、F1分数等,来评估模型的性能和可靠性。同时,可以进行模型的可视化分析,如绘制学习曲线、混淆矩阵等,以更全面地评估模型的表现。
在模型评估和测试通过后,可以将模型部署到实际应用中。在训练完成后,将语音转换模型导出为可用的格式,如TensorFlow(一种数据流编程)SavedModel(一种保存格式)、ONNX(Open Neural Network Exchange,开放式神经网络交换格式)等。这将使得模型可以在其他平台上进行加载和运行。将训练好的语音转换模型封装为API接口,以供游戏系统进行调用。可以使用常见的API开发框架,如Flask(一种语言编写)、Django(一种语言框架)等,在服务器上搭建一个API(Application Programming Interface,应用程序编程接口)服务。在API服务中,加载训练好的模型,并提供一个接口用于接收音频输入并输出转换后的目标音频数据。
在实际应用程序中,可以选择使用现有的插件或自定义开发音频处理模块来嵌入各个游戏皮肤对应的候选语音处理模型,确保插件或自定义音频处理模块已正确安装并配置。
在一示例性实施例中,上述游戏音频处理方法还可以包括:
提取多个游戏皮肤的属性信息,并建立游戏皮肤的属性信息与候选语音处理模型之间的对应关系。
本示例性实施例可以预先建立不同游戏皮肤的属性信息与对应语音处理模型的映射关系,具体可以通过构建映射表或键值对的方式记录游戏皮肤的属性信息与候选语音处理模型之间的对应关键。在进行游戏音频处理的具体应用场景中,当确定目标游戏皮肤的属性信息后,可以根据属性信息与候选语音处理模型之间的对应关系,查找得到当前目标游戏皮肤的属性信息对应的候选语音处理模型,进而确定目标语音处理模型。
在一示例性实施例中,上述获取虚拟角色可穿戴的目标游戏皮肤的属性信息,包括:
响应于检测到虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为目标游戏皮肤,获取目标游戏皮肤的属性信息。
在本示例性实施例中,当检测到虚拟角色当前穿戴的游戏皮肤进行切换后,可以将切换后的游戏皮肤作为目标游戏皮肤,并获取目标游戏皮肤的属性信息。游戏皮肤的检测可以通过多种方式实现,例如可以通过检测玩家在游戏中执行的游戏皮肤更换操作实现,如玩家点击某一可穿戴游戏皮肤或点击确认换装的选项等,或者在游戏程序中编写特定的检测代码实现等。
在一示例性实施例中,如图3所示,上述响应于检测到虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为目标游戏皮肤,获取目标游戏皮肤的属性信息,可以包括:
步骤S310,响应于在游戏引擎中检测到虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为目标游戏皮肤,在音频引擎中通过游戏引擎的接口获取目标游戏皮肤的属性信息;
上述根据目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型,可以包括:
步骤S320,在音频引擎中,根据目标游戏皮肤的属性信息,从音频引擎中嵌入的预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型;
上述通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据,可以包括:
步骤S330,在音频引擎中,通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据。
本示例性实施例可以在游戏引擎的代码逻辑或事件触发机制中,添加相关的代码逻辑来检测角色皮肤切换事件。当检测到角色皮肤切换事件发生时,可以通过游戏引擎的接口或者相关的数据结构,获取当前虚拟角色穿戴的游戏皮肤的属性信息,例如标识符、名称或其他特征信息等,进而基于该属性信息查找目标语音处理模型。
进一步,在音频引擎中,可以根据目标游戏皮肤的属性信息,选择对应的候选语音处理模型,作为目标语音处理模型。根据目标语音处理模型的标识符或名称等属性信息,可以加载对应的模型文件以进行模型应用。
在音频处理流程中,当有待处理音频或待处理文本等待处理数据需要进行处理时,可以将其传入已加载的目标语音处理模型中,通过调用模型的推理函数,生成处理后的目标音频数据。
在本示例性实施例中,在将转换后的目标音频数据应用于游戏场景之前,还可以对目标音频数据进行其他声音效果处理,例如增加回声、混响、音量调整等。这些处理可以通过特定声音处理工具或游戏引擎提供的音频特效功能来实现。
本示例性实施例在游戏的音频引擎中通过对目标游戏皮肤的检测,自动切换对应的目标语音处理模型,实现虚拟角色在游戏中播放出与游戏皮肤属性相匹配的声音效果。
训练完成的候选语音处理模型可以整合到以上步骤将训练好的语音转换模型整合到音频引擎软件和/或游戏引擎中,以实现虚拟角色在游戏中表现出与皮肤属性相匹配的声音效果。在整合过程中,可以参考相关文档和示例代码,进行充分的测试和调试,确保整合后的功能在游戏中稳定且性能良好。
本公开的示例性实施例还提供了一种游戏音频处理装置。参照图4,该装置400可以包括,属性信息获取模块410,用于获取虚拟角色可穿戴的目标游戏皮肤的属性信息;处理模型确定模块420,用于根据目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型;目标音频获得模块430,用于通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据;待处理数据包括音频数据和/或文本数据;目标音频数据用于在虚拟角色穿戴目标游戏皮肤的情况下播放。
在一示例性实施例中,游戏语音处理装置还包括:第一样本语音数据获取单元,用于获取多个游戏皮肤对应的第一样本语音数据;样本音频特征提取单元,用于基于第一样本语音数据提取样本音频特征数据;语音处理模型训练单元,用于通过多个游戏皮肤对应的样本音频特征数据分别训练多个候选语音处理模型。
在一示例性实施例中,游戏语音处理装置还包括:对应关系建立单元,用于提取多个游戏皮肤的属性信息,并建立游戏皮肤的属性信息与候选语音处理模型之间的对应关系。
在一示例性实施例中,游戏语音处理装置还包括:标签获取单元,用于获取第一样本语音数据对应的标签;语音处理模型训练单元,包括:模型训练子单元,用于通过多个游戏皮肤对应的样本音频特征数据以及标签分别训练多个待训练的语音处理模型。
在一示例性实施例中,语音处理模型训练单元,包括:语音处理子单元,用于利用样本音频特征数据和候选语音处理模型处理第二样本数据,得到第三样本语音数据;语音判别子单元,用于利用判别模型判别第三样本语音数据是否为真实语音数据,若判别第三样本语音数据不是真实语音数据,则调整候选语音处理模型的参数。
在一示例性实施例中,属性信息获取模块,包括:游戏皮肤切换检测单元,用于响应于检测到虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为目标游戏皮肤,获取目标游戏皮肤的属性信息。
在一示例性实施例中,游戏皮肤切换检测单元,用于响应于在游戏引擎中检测到虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为目标游戏皮肤,在音频引擎中通过游戏引擎的接口获取目标游戏皮肤的属性信息;处理模型确定模块,用于在音频引擎中,根据目标游戏皮肤的属性信息,从音频引擎中嵌入的预先训练的多个候选语音处理模型中确定与目标游戏皮肤的属性信息对应的目标语音处理模型;目标音频获得模块,用于在音频引擎中,通过目标语音处理模型对虚拟角色的待处理数据进行处理,得到目标音频数据。
上述装置中各部分的具体细节在方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
本公开的示例性实施方式还提供了一种计算机可读存储介质,可以实现为一种程序产品的形式,其包括程序代码,当程序产品在电子设备上运行时,程序代码用于使电子设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。在一种可选的实施方式中,该程序产品可以实现为便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在电子设备,例如个人电脑上运行。然而,本公开的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本公开的示例性实施方式还提供一种电子设备。该电子设备可以包括处理器与存储器。存储器存储有处理器的可执行指令,如可以是程序代码。处理器通过执行该可执行指令来执行本示例性实施方式中的方法。此外,该电子设备还可以包括显示器,以用于显示图形用户界面。
下面参考图5,以通用计算设备的形式对电子设备进行示例性说明。应当理解,图5显示的电子设备500仅仅是一个示例,不应对本公开实施方式的功能和使用范围带来限制。
如图5所示,电子设备500可以包括:处理器510、存储器520、总线530、I/O(输入/输出)接口540、网络适配器550、显示器560。
存储器520可以包括易失性存储器,例如RAM 521、缓存单元522,还可以包括非易失性存储器,例如ROM 523。存储器520还可以包括一个或多个程序模块524,这样的程序模块524包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。例如,程序模块524可以包括上述装置中的各模块。
总线530用于实现电子设备500的不同组件之间的连接,可以包括数据总线、地址总线和控制总线。
电子设备500可以通过I/O接口540与一个或多个外部设备600(例如键盘、鼠标、外置控制器等)进行通信。
电子设备500可以通过网络适配器550与一个或者多个网络通信,例如网络适配器550可以提供如3G/4G/5G等移动通信解决方案,或者提供如无线局域网、蓝牙、近场通信等无线通信解决方案。网络适配器550可以通过总线530与电子设备500的其它模块通信。
电子设备500可以通过显示器560显示图形用户界面,如显示游戏编辑场景等。
尽管图5中未示出,还可以在电子设备500中设置其它硬件和/或软件模块,包括但不限于:显示器、微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的示例性实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
本领域技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施方式。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施方式仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限定。
Claims (10)
1.一种游戏音频处理方法,其特征在于,包括:
获取虚拟角色可穿戴的目标游戏皮肤的属性信息;
根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;
通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据;所述待处理数据包括音频数据和/或文本数据;所述目标音频数据用于在所述虚拟角色穿戴所述目标游戏皮肤的情况下播放。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取多个游戏皮肤对应的第一样本语音数据;
基于所述第一样本语音数据提取样本音频特征数据;
通过所述多个游戏皮肤对应的样本音频特征数据分别训练所述多个候选语音处理模型。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
提取所述多个游戏皮肤的属性信息,并建立所述游戏皮肤的属性信息与所述候选语音处理模型之间的对应关系。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
获取所述第一样本语音数据对应的标签;
所述通过所述多个游戏皮肤对应的样本音频特征数据分别训练多个待训练的语音处理模型,包括:
通过所述多个游戏皮肤对应的样本音频特征数据以及所述标签分别训练多个待训练的语音处理模型。
5.根据权利要求2所述的方法,其特征在于,所述通过所述多个游戏皮肤对应的样本音频特征数据分别训练所述多个候选语音处理模型,包括:
利用所述样本音频特征数据和所述候选语音处理模型处理第二样本数据,得到第三样本语音数据;
利用判别模型判别所述第三样本语音数据是否为真实语音数据,若判别所述第三样本语音数据不是真实语音数据,则调整所述候选语音处理模型的参数。
6.根据权利要求1所述的方法,其特征在于,所述获取虚拟角色可穿戴的目标游戏皮肤的属性信息,包括:
响应于检测到所述虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为所述目标游戏皮肤,获取所述目标游戏皮肤的属性信息。
7.根据权利要求6所述的方法,其特征在于,所述响应于检测到所述虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为所述目标游戏皮肤,获取所述目标游戏皮肤的属性信息,包括:
响应于在游戏引擎中检测到所述虚拟角色当前穿戴的游戏皮肤进行切换,将切换后的游戏皮肤作为所述目标游戏皮肤,在音频引擎中通过所述游戏引擎的接口获取所述目标游戏皮肤的属性信息;
所述根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型,包括:
在所述音频引擎中,根据所述目标游戏皮肤的属性信息,从所述音频引擎中嵌入的预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;
所述通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据,包括:
在所述音频引擎中,通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据。
8.一种游戏音频处理装置,其特征在于,包括:
属性信息获取模块,用于获取虚拟角色可穿戴的目标游戏皮肤的属性信息;
处理模型确定模块,用于根据所述目标游戏皮肤的属性信息,从预先训练的多个候选语音处理模型中确定与所述目标游戏皮肤的属性信息对应的目标语音处理模型;
目标音频获得模块,用于通过所述目标语音处理模型对所述虚拟角色的待处理数据进行处理,得到目标音频数据;所述待处理数据包括音频数据和/或文本数据;所述目标音频数据用于在所述虚拟角色穿戴所述目标游戏皮肤的情况下播放。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410346995.0A CN118045358A (zh) | 2024-03-25 | 2024-03-25 | 游戏音频处理方法、游戏音频处理装置、电子设备、介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410346995.0A CN118045358A (zh) | 2024-03-25 | 2024-03-25 | 游戏音频处理方法、游戏音频处理装置、电子设备、介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118045358A true CN118045358A (zh) | 2024-05-17 |
Family
ID=91053734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410346995.0A Pending CN118045358A (zh) | 2024-03-25 | 2024-03-25 | 游戏音频处理方法、游戏音频处理装置、电子设备、介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118045358A (zh) |
-
2024
- 2024-03-25 CN CN202410346995.0A patent/CN118045358A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110853618B (zh) | 一种语种识别的方法、模型训练的方法、装置及设备 | |
EP3803846B1 (en) | Autonomous generation of melody | |
CN109862393B (zh) | 视频文件的配乐方法、系统、设备及存储介质 | |
CN110288077A (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
JP7086521B2 (ja) | 情報処理方法および情報処理装置 | |
CN110838286A (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN110853617B (zh) | 一种模型训练的方法、语种识别的方法、装置及设备 | |
CN112309365B (zh) | 语音合成模型的训练方法、装置、存储介质以及电子设备 | |
US20230182029A1 (en) | Automatic classification and reporting of inappropriate language in online applications | |
CN111653265B (zh) | 语音合成方法、装置、存储介质和电子设备 | |
CN113421547B (zh) | 一种语音处理方法及相关设备 | |
KR102181901B1 (ko) | 애니메이션 생성 방법 | |
CN113939870A (zh) | 为基于生成和检索的应用学习有效音乐特征的技术 | |
JP2017167273A (ja) | 声質嗜好学習装置、声質嗜好学習方法及びプログラム | |
JP2021101252A (ja) | 情報処理方法、情報処理装置およびプログラム | |
CN114882862A (zh) | 一种语音处理方法及相关设备 | |
CN108491379A (zh) | 快捷键识别方法、装置、设备以及计算机可读存储介质 | |
US11521594B2 (en) | Automated pipeline selection for synthesis of audio assets | |
US20210283505A1 (en) | Video Game Content Provision System and Method | |
CN112580669A (zh) | 一种对语音信息的训练方法及装置 | |
KR102096598B1 (ko) | 애니메이션 생성 방법 | |
KR20210091970A (ko) | 심박 정보를 이용한 영상 취향 분석 시스템 및 방법 | |
CN118045358A (zh) | 游戏音频处理方法、游戏音频处理装置、电子设备、介质 | |
CN116127003A (zh) | 文本处理方法、装置、电子设备及存储介质 | |
CN114999440A (zh) | 虚拟形象生成方法、装置、设备、存储介质以及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination |