CN114446304A - 语音交互方法、数据处理方法、装置和电子设备 - Google Patents
语音交互方法、数据处理方法、装置和电子设备 Download PDFInfo
- Publication number
- CN114446304A CN114446304A CN202011120268.0A CN202011120268A CN114446304A CN 114446304 A CN114446304 A CN 114446304A CN 202011120268 A CN202011120268 A CN 202011120268A CN 114446304 A CN114446304 A CN 114446304A
- Authority
- CN
- China
- Prior art keywords
- information
- data
- voice
- output
- pronunciation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/063—Training
- G10L2015/0638—Interactive procedures
Abstract
本申请实施例提供了一种语音交互方法、数据处理方法、装置和电子设备,所述的语音交互方法包括:获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息;确定语音交互中应答所述输入文本信息的输出交互信息;依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;依据所述对象交互信息,确定输出语音数据;能够提升用户体验。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种语音交互方法、一种数据处理方法、一种语音交互装置、一种数据处理装置、一种电子设备和一种存储介质。
背景技术
智能语音交互是基于语音输入的新一代交互模式,通过说话就可以得到反馈结果。
一种现有的智能语音交互方式中,用户可以选择对应的发音对象,进行语音的播报,在交互过程中,会采用发音对象的声音,将通用的回复合成语音数据,并进行播报,如在导航过程中,用户可以选择发音对象a,并使用发音对象a的声音进行导航发音。
但是采用上述现有的方式进行播报,播报的内容与发音对象的表达风格不匹配,用户体验差。
发明内容
本申请实施例提供了一种语音交互方法,以提升用户体验。
相应的,本申请实施例还提供了一种语音交互装置、一种数据处理方法、一种数据处理装置、一种电子设备和一种存储介质,用以保证上述系统的实现及应用。
为了解决上述问题,本申请实施例公开了一种语音交互方法,所述的方法包括:获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息;确定语音交互中应答所述输入文本信息的输出交互信息;依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;依据所述对象交互信息,确定输出语音数据。
为了解决上述问题,本申请实施例公开了一种数据处理方法,包括:获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种;将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果;依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。
为了解决上述问题,本申请实施例公开了一种语音交互方法,包括:获取输入语音数据,并对所述输入语音数据进行语音识别,得到导航输入信息;确定语音导航中应答所述导航输入信息的导航输出信息;依据语音导航的发音对象的对象参数,对所述导航输出信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;依据所述对象交互信息,确定导航语音数据,并通过语音导航的发音对象播报所述导航语音数据。
为了解决上述问题,本申请实施例公开了一种语音交互方法,包括:获取输入语音数据和指定的智能语音客服;对所述输入语音数据进行语音识别,得到输入文本信息;确定应答所述输入文本信息的输出交互信息;依据智能语音客服的客服参数,对所述输出交互信息进行调整,得到与智能语音客服的风格特征匹配的客服交互信息;依据所述客服交互信息,确定输出语音数据,并通过智能语音客服播报所述输出语音数据。
为了解决上述问题,本申请实施例公开了一种语音交互方法,包括:获取输入数据,并确定应答输入数据的第一输出交互信息;获取待输出的第二输出交互信息;依据智能主持对象的对象参数,对所述第一输出交互信息和第二输出交互信息进行调整,得到与智能主持对象的风格特征匹配的对象交互信息;依据所述对象交互信息,确定输出语音数据,并通过智能主持对象播报输出语音数据。
为了解决上述问题,本申请实施例公开了一种语音交互装置,包括:输入信息获取模块,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息;输出信息获取模块,用于确定语音交互中应答所述输入文本信息的输出交互信息;交互信息获取模块,用于依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;输出语音获取模块,用于依据所述对象交互信息,确定输出语音数据。
为了解决上述问题,本申请实施例公开了一种数据处理装置,包括:目标数据处理模块,用于获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种;数据调整处理模块,用于将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果;发生器处理模块,用于依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。
为了解决上述问题,本申请实施例公开了一种语音交互装置,包括:输入信息确定模块,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到导航输入信息;输出信息确定模块,用于确定语音导航中应答所述导航输入信息的导航输出信息;交互信息确定模块,用于依据语音导航的发音对象的对象参数,对所述导航输出信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;输出语音确定模块,用于依据所述对象交互信息,确定导航语音数据,并通过语音导航的发音对象播报所述导航语音数据。
为了解决上述问题,本申请实施例公开了一种语音交互装置,包括:输入语音获得模块,用于获取输入语音数据和指定的智能语音客服;输入信息获得模块,用于对所述输入语音数据进行语音识别,得到输入文本信息;输出信息获得模块,用于确定应答所述输入文本信息的输出交互信息;交互信息获得模块,用于依据智能语音客服的客服参数,对所述输出交互信息进行调整,得到与智能语音客服的风格特征匹配的客服交互信息;输出语音获得模块,用于依据所述客服交互信息,确定输出语音数据,并通过智能语音客服播报所述输出语音数据。
为了解决上述问题,本申请实施例公开了一种语音交互装置,包括:第一输入处理模块,用于获取输入数据,并确定应答输入数据的第一输出交互信息;第二输入处理模块,用于获取待输出的第二输出交互信息;数据调整处理模块,用于依据智能主持对象的对象参数,对所述第一输出交互信息和第二输出交互信息进行调整,得到与智能主持对象的风格特征匹配的对象交互信息;数据合成处理模块,用于依据所述对象交互信息,确定输出语音数据,并通过智能主持对象播报输出语音数据。
为了解决上述问题,本申请实施例公开了一种电子设备,包括:处理器;和存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如上述实施例中一个或多个所述的方法。
为了解决上述问题,本申请实施例公开了一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如上述实施例中一个或多个所述的方法。
与现有技术相比,本申请实施例包括以下优点:
在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到输入文本信息,然后确定语音交互中应答输入文本信息的输出交互信息。在确定了输出交互信息之后,可以依据发音对象的对象参数,对无发音对象的风格特征的输出交互信息进行调整,得到具有发音对象的风格特征的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合发音对象的风格特征的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的风格特征匹配,提升用户体验。
附图说明
图1是本申请一个实施例的语音交互方法的示意图;
图2是本申请一个实施例的语音交互方法的流程示意图;
图3是本申请另一个实施例的语音交互方法的流程示意图;
图4是本申请一个实施例的数据处理方法的流程示意图;
图5是本申请一个实施例的获取第一数据的流程示意图;
图6是本申请再一个实施例的语音交互方法的流程示意图;
图7是本申请再一个实施例的语音交互方法的流程示意图;
图8是本申请再一个实施例的语音交互方法的流程示意图;
图9是本申请一个实施例的语音交互装置的结构示意图;
图10是本申请一个实施例的数据处理装置的结构示意图;
图11是本申请另一个实施例的语音交互装置的结构示意图;
图12是本申请再一个实施例的语音交互装置的结构示意图;
图13是本申请再一个实施例的语音交互装置的结构示意图;
图14是本申请一个实施例提供的示例性装置的结构示意图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。
本申请实施例可以应用在智能语音交互领域,智能语音交互是基于语音输入的新一代交互模式,用户通过说话就可以得到反馈结果。智能语音交互过程通常包括以下的模块,分别是语音识别(AutomaticSpeechRecognition,ASR)、自然语言理解(NaturalLanguageUnderstanding,NLU)、对话管理(DialogManagement,DM)、自然语言生成(NaturalLanguageGeneration,NLG)和语音合成(TextToSpeech,TTS)。
语音识别(ASR)是将用户的输入语音数据切分为音频帧,并识别音频帧对应的元素,然后将元素组合为文本信息的过程。自然语言理解(NLU)是指对文本进行语义识别,确定文本对应的语义信息的过程。对话管理(DM)是根据自然语言理解模块得到的语义信息,选择需要执行的系统,如需要执行的系统行为是与用户进行交互,则控制执行NLG,自然语言生成(NLG)用于生成自然语言或系统话语的文本。语音合成(TTS)是指将文本转换为语音,以反馈给用户。
本申请实施例可以应用在语音唤醒、语音导航、智能语音客服、智能电视(包括机顶盒、网络电视盒子等)、直播助手、虚拟主持人/主播(或称智能主持对象)等场景中进行自然语言生成(NLG),本申请实施例的方式可以通过处理端来执行,处理端可以为用户的终端,处理端也可以为与用户的终端进行交互的服务端,如图1所示,可以通过麦克风获取用户的输入语音数据,并进行对话分析,得到回复该输入语音数据的输出交互信息,输出交互信息可以理解为通用的文本类型的回复。在确定了输出交互信息之后,处理端可以根据用户预先指定的发音对象的发生器,对输出交互信息进行微调,将输出交互信息转换为具有发音对象风格特征(或称语言特征、对话风格、表达风格、话术风格、会话风格等)的对象交互信息,其中,发生器包含有发音对象的对象参数,对象参数用于对输入的数据进行微调(fine-tune),得到具有发音对象的对话风格的对象交互信息,对象交互信息可以理解为具有发音对象风格特征的个性化的回复,发音对象的风格特征可以理解为发音对象的会话风格(conversationalstyle)特征,是指发音对象在表达上的特征,可包括会话方式、会话特点等,可以通过对带有发音对象风格的语言数据进行分析得到。之后将对象交互信息合成为具有发音对象发音的输出语音数据,并通过扬声器播放该输出语音数据,其中,输出语音数据可以理解为音频类型的数据,输出语音数据可以基于文本类型的输出交互信息进行语音合成得到。在本申请实施例中,可以利用无风格的输出交互信息(通用的回复)生成具有发音对象的风格特征的对象交互信息,并合成为输出语音数据进行输出,使得发音对象的播报的内容与发音对象的风格特征匹配,提升用户体验。
举例来说,在语音导航场景中,用户发出了开启导航的输入语音数据,处理端可以依据输入语音数据,确定通用的回复(如“我在,有什么可以帮您”)作为输出交互信息,并将输出交互信息输入到预先设置的发音对象A的发生器A中进行调整,得到对象交互信息(如“我在呢,有事您说话”),然后将对象交互信息合成为输出语音数据,并输出。在本申请实施例中,可以将通用的回复转换为具有发音对象的风格特征的对象交互信息,并输出对应的输出语音数据,使得发音对象的播报的输出语音数据与发音对象的风格特征匹配,提升用户体验。此外,本申请实施例除了可以对接收的输入语音数据进行分析,得到对话该输入语音数据的输出交互信息之外,还可以从其他服务器接收待输出的输出交互数据(如用户的终端为处理端,处理端可以从服务端接收),并对输出交互信息进行调整,得到对象交互信息,然后生成对应的输出语音数据。
本申请实施例除了可以应用在上述场景中之外,还可以应用在其他的进行带有发音对象的对话风格的语音输出场景中,举例来说,在对儿童进行语音输出的场景下(如儿童教育、儿童科普等场景),可以指定儿童喜欢的卡通人物作为发音对象,并将通用的语音交互的输出交互信息调整为具有指定的卡通人物的对话风格的对象交互信息,并输出。具体的,对于与儿童进行语音输出的场景中,还可以预先设定一些禁止输出的词,并在数据调整的过程中,将该类词进行替换或删除。再举例来说,还可以应用在景点讲解的语音输出场景中,用户可以指定智能的讲解客服,处理端可以将通用的输出交互信息调整为具有讲解客服的对话风格的对象交互信息,并输出。再举例来说,发音对话的对话风格也可以为方言风格,用户可以预先指定方言的方言发音对象,处理端可以将无风格的输出交互信息调整为具有方言风格的对象交互信息,并通过方言发音对象进行播报。再举例来说,还可以应用在对视频或音频中的语音数据进行转换处理的场景中,用户可以指定待转换的发音对象A和转换后的发音对象B,处理端可以采集发音对象A的语音数据,并将语音数据转换为文本,然后可以将文本转换为具有发音对象B的对话风格的对象交互信息,并合成语音数据,添加到视频或音频数据中。
本申请实施例中的发生器(Generator)可以为预先训练好的发生器,本申请实施例中的发生器训练过程如图1所示,可以预先采集发音对象相关的训练数据,并利用训练数据来训练微调模型,微调模型包含有对象参数,微调模型用于对抓取的大量的待调整数据进行调整,得到对应的调整结果。然后依据待调整数据和对应的调整结果,确定发音对象的发生器。其中,训练数据是指包含有输出交互信息及其对应的对象交互信息的数据,输出交互信息可以理解为输入发生器的数据,对象交互信息可以理解为输出交互信息的标注(发生器的输出数据),训练数据还可以称为目标数据,训练数据可以包括第一数据、第二数据和第三数据。第一数据可以包括人工标注数据,具体的,可以通过人工标注的方式,确定输出交互信息对应的对象交互信息。例如,可以确定输出交互信息“我在”对应的对象交互信息为“我在呢”、或“我来了”。第二数据可以包括依据发音对象的风格信息进行标注的数据,可以利用预先设置好的风格信息,对输出交互信息进行风格化处理,得到对象交互信息。例如,可以对输出交互信息“快左转”进行风格化处理,得到对象交互信息“哦买噶,前面快左转啊亲”。第三数据可以包括通过翻译发音对象相关的风格数据确定的数据,可以采集发音对象相关的风格数据,作为对象交互信息,并进行翻译,得到输出交互信息。
本申请实施例提供一种语音交互方法,可以通过处理端来执行,如图2所示,该方法包括:
步骤202、获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息。处理端可以通过麦克风来获取用户的输入语音数据。并对输入语音数据进行语音识别(ASR),得到输入文本信息。
步骤204、确定语音交互中应答所述输入文本信息的输出交互信息。输出交互信息可以理解为文本类型的应答信息,因此,输出交互信息还可以称为输出文本信息。处理端在确定了输入文本信息之后,可以按照对话管理(DM),确定应答该输入文本信息的输出交互信息。对话管理还可以称为对话流程。例如,用户的输入文本信息为“你好”,处理端按照对话流程,确定回复该输入文本信息的输出交互信息为“你好,有什么可以帮您”。
具体来说,处理端可以对输入文本信息进行语义识别(NLU),并按照对话流程确定对应的回复语义,然后依据回复语义,确定应答该输入文本信息的输出交互信息。具体的,作为一个可选的实施例,所述确定语音交互中应答所述输入文本信息的输出交互信息,包括:确定输入文本信息的输入语义信息;依据所述输入语义信息,确定回复所述输入语义信息的输出语义信息;依据所述输出语义信息,确定对应的输出交互信息。语义识别具体是对文本信息切分,并识别对应的特征,然后结合文本的上下文信息,分析文本信息对应的语义信息。本申请实施例可以对输入文本信息进行语义识别,得到对应的输入语义信息,然后按照对话流程,确定对应的输出语义信息,然后提取对应的文本,作为输出交互信息。
在确定了通用的应答输入语音数据的输出交互信息之后,可以对输出交互信息进行微调,得到符合发音对象的风格特征(或称对话风格)的对象交互信息。具体的,处理端在步骤206中,依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息。在进行语音交互之前,用户可以指定对应的发音对象,处理端可以提供发音对象选择页面,用户可以在发音对象选择页面中进行操作,指定对应的发音对象。处理端可以依据用户指定的发音对象的对象参数,对输出交互信息进行微调,得到符合发音对象的对话风格的对象交互信息,使得发音对象播报的语音数据符合发音对象的对话风格,提升用户体验。举例来说,对于用户的输入文本信息为“你好”,确定通用的回复(输出交互信息)为“你好,有什么可以帮您”,可以按照发音对象A的对象参数,对输出交互信息进行调整,使其转变为对象交互信息“我在呢,有事您说话”。
本申请实施例可以为每个发音对象设置对应的话术组件作为对象参数,话术组件为构成语言的元素,发音对象的话术组件对应发音对象的话术资源(或称话术),话术资源可以包括一个及一个以上的词,处理端可以依据回复用户的信息所包含的话术组件,提取对应的话术资源,以构成回复用户信息,举例来说,对于回复用户的信息(或称语言)可以预先设置其包含有三个话术组件,分别为“应答话术组件”、“退出服务话术组件”和“引导后续操作话术组件”,则可以依据各话术组件对应的话术资源,确定回复用户的信息“好的,我退下了,有事再叫我”,并将该信息回复给用户,其中,“好的”为应答话术组件对应的话术资源,“我退下了”为退出服务话术组件对应的话术资源,“有事再叫我”为引导后续操作话术组件对应的话术资源。具体的,作为一个可选的实施例,所述对象参数包括为发音对象设置的话术组件,所述话术组件用于确定输出交互信息的语言结构,所述依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息,包括:依据发音对象的话术组件,对输出交互信息进行分割,确定构成输出交互信息的目标话术组件;利用目标话术组件对输出交互信息进行转换调整,得到与发音对象的风格特征匹配的对象交互信息。处理端可以获取为发音对象设置的话术组件(对象参数),依据话术组件将输出交互信息分割,得到输出交互信息的语言结构,语言结构由目标话术组件构成,然后确定发音对象的与目标话术组件对应的话术资源,并进行转换调整,得到发音对象的对象交互信息。举例来说,对于输出交互信息“你好,有什么可以帮您”,可以将其分割为“您好”和“有什么可以帮您”,其中,“您好”对应应答话术组件,“有什么可以帮您”对应引导后续操作话术组件,然后确定获取发音对象的话术资源中与话术组件对应的目标话术资源(“我在呢”和“有事您说话”),并进行拼接,得到对象交互信息“我在呢,有事您说话”。其中,话术组件对应的话术资源可以为预先设置的,例如可以通过人工设置得到,也可以通过抓取的发音对象相关的风格数据确定,也可以依据通用的回复添加对应的风格化语料得到。话术组件对应的话术资源也可以通过话术组件生成,例如,可以利用通用的回复添加对应的风格化语料生成,也可以抓取发音对象相关的风格数据生成。
本申请实施例还可以为每个发音对象训练对应的发生器,发生器包含有对象参数,处理端可以利用发音对象对应的发生器,将无风格的输出交互信息调整为具有发音对象的对话风格的对象交互信息。具体的,作为一个可选的实施例,所述对象参数包括为发音对象设置的话术组件,所述话术组件用于确定输出交互信息的语言结构,所述依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息,包括:获取所述语音交互的发音对象对应的发生器;将所述输出交互信息输入到所述发生器中,得到与发音对象的风格特征匹配的对象交互信息,所述发生器利用目标话术组件对输出交互信息进行转换调整,所述目标话术组件依据发音对象的话术组件对输出交互信息进行分割确定。发生器包含发音对象的对象参数,发音对象的对象参数可以包括为发音对象的话术组件,发音对象的发生器可以为预先训练好的发生器,发生器的训练过程可以在其他服务器完成,发生器将输出交互信息作为输入数据,并利用发音对象的话术组件将输出交互信息调整为对应发音对象的对话风格的对象交互信息。
作为一个可选的实施例,发生器的具体训练步骤可以包括:获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种;将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果;依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。可以将第一数据、第二数据和第三数据,输入到微调模型中进行训练,然后利用训练好的微调模型对大量的待调整数据进行调整,得到调整结果,然后可以对调整结果进行筛选,例如通过人工筛选的方式来筛选出符合条件的条件结果,并依据待调整数据和调整结果,确定发音对象的发生器的对象参数,其中,待调整数据与输出交互信息对应,调整结果与对象交互信息对应,以便通过发生器将输出交互信息调整为对象交互信息。本申请实施例中,可以为第一数据、第二数据和第三数据分别设置对应的权重值,在训练微调模型的过程中,可以利用对应的权重值,确定数据对微调模型的对象参数的修正程度,以便得到更加准确的微调模型。确定了微调模型之后,可以利用微调模型对大量的待调整数据进行调整,得到大量的调整结果,扩充了发生器处理的语料的量,以便对输出交互信息进行调整。
可以通过人工编辑发音对象的话术的话术组件(用于确定语言结构)、话术规范(用于确定风格信息)等,然后生成对应的话术生成任务,并依据话术生成任务得到第一数据。具体的,作为一个可选的实施例,获取第一数据的步骤包括:确定发音对象的话术生成任务,所述话术生成任务用于生成具有发音对象的风格的话术,所述话术用于确定发音对象的对象交互信息;依据所述话术生成任务,确定对应的一级话术;对一级话术进行审核,得到二级话术;将多个二级话术转换为对话流程中的对话话术,并对话话术进行播报测试,得到第一数据。处理端可以获取人工编辑的构成话术的话术组件以及定义的话术规范等规则,并生成对应的话术生成任务,然后按照话术生成任务,生成一级话术,一级话术为初始的话术,可能存在错别字、多音字等,因此,可以对一级话术进行审核处理,进而得到二级话术。举例来说,可以通过人工编辑回复用户的话术的语言结构包含的话术组件,如可以包括“应答话术”和“引导后续操作话术组件”然后分别生成应答话术生成任务和引导后续操作话术生成任务,然后可以将该话术生成任务分发给不同的话术编辑用户,话术编辑用户可以按照发音对象的风格特征,为话术生成组件配置话术资源作为一级话术,如:为发音对象的应答话术组件配置话术资源“我在”,“我来了”,“在的呢”等作为一级话术,并上传进行审核,进而剔除存在错别字或与发音对象的风格特征匹配程度不高的一级话术,得到审核通过的二级话术,对一级话术的审核可以通过人工审核或按照预设规则进行审核,具体可依据需求设置。在确定了二级话术之后,可以将多个二级话术拼接组成对话流程中的对话话术,并进行播报测试,得到第一数据。举例来说,可以将应答话术组件和引导后续操作话术组件对应的二级话术进行拼接,得到“我在呢,有事儿您吩咐”的对话话术,并通过发音对象进行播报测试,得到测试通过的第一数据。
在确定了具有发音对象的对话风格的对象交互信息之后,处理端可以在步骤208中,依据所述对象交互信息,确定输出语音数据。对象交互信息可以理解为文本类型的信息,输出语音数据可以理解为音频类型的数据,处理端可以将对象交互信息转换为输出语音数据,并通过播放器播报给用户。处理端可以利用发音对象的发音数据,来合成输出语音数据,具体的,作为一个可选的实施例,所述依据所述对象交互信息,确定输出语音数据,包括:依据发音对象的发音数据,将所述对象交互信息合成为输出语音数据。可以对对象交互信息进行语音合成处理,得到输出语音数据,语音合成是通过机械的、电子的方法产生人造语音的技术,是将计算机自己产生的、或外部输入的文字信息转变为可以听得懂的、流利的汉语口语输出的技术。本申请实施例中发音数据可以包括发音对象的音色数据、语速数据、语调数据等,通过对对象交互信息进行文本分析、韵律分析,并为对象交互信息搭配对应的发音,得到输出语音数据。
在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到输入文本信息,然后确定语音交互中应答输入文本信息的输出交互信息。在确定了输出交互信息之后,可以依据发音对象的对象参数,对无发音对象的对话风格的输出交互信息进行调整,得到具有发音对象的对话风格的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合发音对象的对话风格的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的对话风格匹配,提升用户体验。
在上述实施例的基础上,本申请实施例还提供一种语音交互方法,该方法可以通过处理端来执行,如图3所示,所述方法包括:
步骤302、获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息。
步骤302、确定输入文本信息的输入语义信息。
步骤302、依据所述输入语义信息,确定回复所述输入语义信息的输出语义信息。
步骤302、依据所述输出语义信息,确定对应的输出交互信息。
步骤310、依据语音交互的发音对象的话术组件,对输出交互信息进行分割,并确定构成输出交互信息的目标话术组件。
步骤312、利用目标话术组件对输出交互信息进行转换调整,得到与发音对象的风格特征匹配的对象交互信息。
步骤314、依据发音对象的发音数据,将所述对象交互信息合成为输出语音数据。
在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到输入文本信息,然后对输入文本信息进行语义识别,得到输入语义信息,并依据输入语义信息确定语音交互中应答输入语义信息的输出语义信息,进而得到输出交互信息。在确定了输出交互信息之后,可以依据发音对象的对象参数,对输出交互信息进行分割,得到目标话术组件,并将多个目标话术组件对应的话术进行拼接,得到具有发音对象的对话风格的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合发音对象的对话风格的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的对话风格匹配,提升用户体验。
在上述实施例的基础上,本申请实施例还提供一种数据处理方法,通过该方案能够进行发生器的训练,该数据处理方法能够通过服务端来执行,服务端可以为用户的终端设备,也可以为与用户的终端设备进行交互的服务器。如图4所示,数据处理方法包括:
步骤402、获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种。可以将第一数据、第二数据和第三数据输入到微调模型中,对发音对象的对象参数进行训练。本申请实施例中,可以为第一数据、第二数据和第三数据分别设置对应的权重值,在训练微调模型的过程中,可以利用对应的权重值,确定数据对微调模型的对象参数的修正程度,以便得到更加准确的微调模型。然后利用微调模型以数据迁移的方式对大量的待调整数据进行调整,得到大量的调整结果,扩充了发生器处理的语料的量,以便对输出交互信息进行调整。
可以通过人工编辑发音对象的话术的话术组件、话术规范等规则,然后生成对应的话术生成任务,并依据话术生成任务得到第一数据。具体的,作为一个可选的实施例,数据处理方法还包括获取第一数据的步骤:确定发音对象的话术生成任务,所述话术生成任务用于生成具有发音对象的风格的话术,所述话术用于确定发音对象的对象交互信息;依据所述话术生成任务,确定对应的一级话术;对一级话术进行审核,得到审核通过的二级话术;将多个二级话术转换为对话流程中的对话话术,并对话话术进行播报测试,得到第一数据。可以获取人工编辑的构成话术的话术组件以及定义的话术规范等规则,生成对应的话术生成任务,然后按照话术生成任务,生成一级话术,一级话术为初始的话术,可能存在错别字、多音字等,因此,可以对一级话术进行审核处理,进而得到审核通过的二级话术。然后将多个二级话术拼接组成对话流程中的对话话术,并进行播报测试,得到第一数据。
话术生成任务中可以包含话术的语言结构和风格信息。具体的,作为一个可选的实施例,所述确定发音对象的话术生成任务,包括:确定发音对象的话术的语言结构和风格信息,并生成话术生成任务,所述话术的语言结构由话术组件构成。服务端可以依据具有发音对象风格的风格数据进行分析,确定话术生成任务,具体的,服务端可以采集发音对象相关的风格数据,然后依据风格数据分析发音对象的话术中包含的话术组件和风格信息,然后依据话术组件,确定话术的语言结构,并生成对应的话术生成任务。服务端还可以依据用户自定义的语言结构和风格信息,确定话术生成任务。用户可以自定义发音对象的话术组件,以确定发音对象的语言结构,用户还可以自定义发音对象的风格信息,如定义发音对象的话术规范。在确定了话术生成任务之后,可以通过服务端来按照话术生成任务,生成发音对象的话术资源。也可以将话术生成任务分发给用户,通过用户来编辑发音对象的话术资源。
生成的一级话术之中可能存在错别字、多音字发音错误、断句节奏等问题,因此,可以对一级话术进行多次审核,以确定审核通过的二级话术,具体的,作为一个可选的实施例,所述对一级话术进行审核,得到二级话术,包括:对一级话术进行质检,并对质检后的一级话术进行筛选;将筛选出的一级话术合成为音频数据,并进行播放试听,确定审核通过的二级话术。可以运行脚本对一级话术进行语法和词汇自动质检,包括过滤出错别字、错误标点、敏感词、以及其他不符合风格规范的内容。然后可以对一次质检后的一级话术进行筛选,并可以对筛选出的一级话术进行配置,然后对配音后的一级话术逐句试听效果,评估有无多音字发音错误,断句节奏错误等,以确定审核通过的二级话术。
在确定了二级话术之后,服务端可以将二级话术作为话术资源进行存储,方便后续进行调用,具体的,作为一个可选的实施例,所述将二级话术转换为对话流程中的对话话术,包括:将二级话术导入到对应的话术组件中;确定组成对话流程中的对话话术的目标话术组件;获取目标话术组件对应的二级话术,并进行转换,得到对话流程中的对话话术。在确定了二级话术之后,服务端可以将二级话术导入到对应的话术组件中作为话术资源,以便后续进行调用,具体的,服务端可以确定组成对话流程中的对话话术的多个目标话术组件,并获取多个目标话术组件对应的二级话术进行拼接,得到对话流程中的对话话术。
作为一个可选的实施例,从整体上来说,第一数据的获取过程可以如图5所示,第一数据的获取过程可以分为三个阶段,分别为:准备阶段、编辑阶段和应用阶段。其中,准备阶段包括:
步骤502、确认发音对象的风格语音包,可以为每个发音对象配置一个对应的语音包,以进行话术的数据存储和管理。
步骤504、设计话术的话术组件,可以设计话术对应的话术组件,话术组件为构成话术的语言结构,或者称为话术单元,在确定发音对象的话术的过程中,可以使用多个话术组件来拼接得到话术内容。举例来说,可以为话术设置应答话术组件、退出服务话术组件、引导后续操作话术组件等,可以使用应答话术组件、退出服务话术组件和引导后续操作话术组件,构建成为发音对象的话术,如“好的(应答),我退下了(退出服务),有事再叫我(引导后续操作)”。
步骤506、指定人设话术规范,可以为发音对象设置对应的人设话术规范,例如可以确定话术的字数、语气、句式、动名词、语气词、人称、口头禅等针对某个风格的各种规则。例如发音对象A会频繁使用“啦”作为结尾语气词,发音对象B会使用“哦买噶”作为句首口头禅等。
步骤508、按照设计的话术组件和人设话术规范,生成多个话术生成任务,以便进行话术的生成。可以为一个或多个话术组件生成一个话术生成任务,话术生成任务可以包含有任务要求、场景描述、风格话术规范、示例问句、示例回答等内容。
编辑阶段可包括:
步骤510、发放话术生成任务。话术生成任务可以分配给多个计算端进行处理,计算端可以依据话术生成任务包含的内容,按照对应的算法来编辑话术,例如可以按照话术中包含的语气词,为通用的数据添加语气词,得到对应的话术,计算端还可以利用转换模型,依据给定的一个话术来生成多个话术,增加话术的多样性。举例来说,生成话术时可以采用基于预训练语言模型(UnifiedLanguageModel,UniLM)的转换模型(Transformer),其中,UniLM模型是一个预训练的语言模型,UniLM模型的预训练是基于3个目标:单向的语言模型(LanguageModel,LM)(包括从左到右、从右到左等)、双向的LM和序列转换语言模型(sequence-to-sequenceLanguageModel)。发音对象的话术可以理解为语言,语言可以看作为一串词序列的排布,UniLM模型可以对于给定的话术序列进行分析,得到带有上下文信息的词的向量表征,进而得到整个话术序列的表征,以进行分析,并对话术进行扩充。话术生成任务也可以分配给多个终端的一级用户,一级用户按照话术生成任务包含的内容进行话术的定义。
步骤512、在获取到依据话术生成任务确定的一级话术之后,可以运行脚本对一级话术进行语法和词汇自动质检,包括过滤出错别字、错误标点、敏感词、以及其他不符合风格规范的内容。
步骤514、在对一级话术质检之后,可以对质检后的一级话术进行二次质检,具体的,可以对质检之后的一级话术进行排序,然后筛选出排名靠前的一级话术。也可以将质检之后的一级话术分配给等级更高的二级用户,通过二级用户对质检之后的一级话术进行人工复审(check),以对一级话术进行筛选。
步骤516、对筛选出的一次话术进行配音,并对配音进行试听,得到二级话术。可以对配音后的一级话术逐句试听效果,评估有无多音字发音错误,断句节奏错误等,可以对配音后的一级话术进行语义分析,确定配音后的一级话术是否存在歧义,来对配音后的一级话术进行评估。然后根据试听结果,修改一级话术,例如使用近音词替换,用错别字替换,修改标点断句等,完成试听后,确定二级话术。
应用阶段包括:
步骤518、将确定的二级话术添加到对应的话术组件中,并存储,使得确定的二级话术成为能够被调用的话术资源。
步骤520、配置对话流程,并将多个话术组件对应的话术拼接为对话话术。对话流程可以理解为语音交互流程、对话管理(DM),可以为用户输入的输入话术配置对应的应答话术。
步骤521、进行对话话术播报测试,可以自动输入与输入话术类似的话术,然后测试播报的对话话术是否符合预设要求,进而确定测试结果,在测试通过的情况下,完成第一数据的获取。也可以根据测试用户的输入指令进行播报测试。
在微调模型训练完成之后,服务端可以在步骤404中,将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果。并在步骤406中,依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。在训练完成了微调模型之后,服务端可以将抓取的无风格的待调整数据,输入到微调模型中进行分析,得到调整结果。并依据调整结果和待调整数据,确定对应的发生器。利用微调模型对大量的待调整数据进行调整,得到大量的调整结果,扩充了发生器处理的语料的量,以便对输出交互信息进行调整。其中,一个待调整数据可以对应多个调整结果。
对于一个待调整数据可以确定多个调整结果,在确定了调整结果之后,还可以对调整结果进行筛选,并利用筛选出的调整结果,进一步的调整发生器的对象参数,使得发生器更加准确。具体的,作为一个可选的实施例,所述依据待调整数据和调整结果,确定发音对象的对象参数,包括:筛选符合预设条件的调整结果;依据待调整数据和筛选出的调整结果,更新发生器中发音对象的对象参数。服务端可以将调整结果进行评分,并按照调整结果对调整结果进行排序,并筛选出排名符合阈值的调整结果,然后利用筛选出的调整结果对发生器中的对象参数进一步修正,得到更加准确的发生器。服务端还可以将调整结果发送给评审的用户,通过用户对调整结果进行筛选,筛选出更符合发音对象的对话风格的调整结果,进而对发生器的对象参数进行修正。
在上述实施例的基础上,本申请实施例还提供一种语音交互方法,能够应用在语音导航的领域中,以对用户的导航请求进行具有发音对象的对话风格的语音回复,该方法可以通过处理端来执行,如图6所示,所述方法包括:
步骤602、获取输入语音数据,并对所述输入语音数据进行语音识别,得到导航输入信息。
步骤604、确定语音导航中应答所述导航输入信息的导航输出信息。
步骤606、依据语音导航的发音对象的对象参数,对所述导航输出信息进行调整,得到与发音对象的风格特征匹配的对象交互信息。
步骤608、依据所述对象交互信息,确定导航语音数据,并通过语音导航的发音对象播报所述导航语音数据。
本申请实施例的语音交互方法与上述实施例的语音交互方法类似,具体实施方式可以参照上述实施例的语音交互方法的实施方式,此处不再赘述。
在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到导航输入信息,导航输入信息除了可以包含与导航路线相关的信息之外,还可以包括其他的信息,如天气信息、路况信息等,确定导航输入信息之后,可以确定语音导航中应答导航输入信息的导航输出信息。在确定了导航输出信息之后,可以依据发音对象的对象参数,对无发音对象的风格特征(或称对话风格)的导航输出信息进行调整,得到具有发音对象的对话风格的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的导航输出信息进行调整,得到符合发音对象的对话风格的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的对话风格匹配,提升用户体验。
在上述实施例的基础上,本申请实施例还提供一种语音交互方法,能够应用在智能语音客服场景中,如智能电商平台客服、智能电话客服等各种客服场景中,以对用户的输入语音进行识别,确定对应的回复信息,并将回复信息转换为具有客服的对话风格的输出语音数据进行回复,该方法可以通过处理端来执行,如图7所示,所述方法包括:
步骤702、获取输入语音数据和指定的智能语音客服。
步骤704、对所述输入语音数据进行语音识别,得到输入文本信息。
步骤706、确定应答所述输入文本信息的输出交互信息。
步骤708、依据智能语音客服的客服参数,对所述输出交互信息进行调整,得到与智能语音客服的风格特征匹配的客服交互信息。
步骤710、依据所述客服交互信息,确定输出语音数据,并通过智能语音客服播报所述输出语音数据。
本申请实施例的语音交互方法与上述实施例的语音交互方法类似,具体实施方式可以参照上述实施例的语音交互方法的实施方式,此处不再赘述。
在本申请实施例中,可以获取用户的输入语音数据和用户指定的智能语音客服,并对输入语音数据进行语音识别,得到输入文本信息,然后确定语音交互中应答输入文本信息的输出交互信息。在确定了输出交互信息之后,可以依据智能语音客服的客服参数,对无智能语音客服的对话风格的输出交互信息进行调整,得到具有智能语音客服的对话风格的客服交互信息,并组合成为输出语音数据,以通过智能语音客服播报。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合智能语音客服的对话风格的对象交互信息,并输出,使得智能语音客服的播报的内容与智能语音客服的对话风格匹配,提升用户体验。
在上述实施例的基础上,本申请实施例还提供一种语音交互方法,能够应用在智能主持人(或智能主播)场景中,可以对主持对象的主持词(或串场词)和与观看用户之间的互动信息进行调整,转换为具有主持对象的主持风格的输出语音数据并输出,该方法可以通过处理端来执行,如图8所示,所述方法包括:
步骤802、获取输入数据,并确定应答输入数据的第一输出交互信息。
步骤804、获取待输出的第二输出交互信息。
步骤806、依据智能主持对象的对象参数,对所述第一输出交互信息和第二输出交互信息进行调整,得到与智能主持对象的风格特征匹配的对象交互信息。
步骤808、依据所述对象交互信息,确定输出语音数据,并通过智能主持对象播报输出语音数据。
本申请实施例的语音交互方法与上述实施例的语音交互方法类似,具体实施方式可以参照上述实施例的语音交互方法的实施方式,此处不再赘述。
在本申请实施例中,第一输出交互信息可以理解为应答该输入数据的文本,输入数据可以为语音类型的输入数据,也可以为文本类型的输入数据(如评论数据)。第二输出交互信息可以理解为主持对象的预先设置好的串场词、主持词等。本申请实施例可以获取输入数据,并确定应答该输入数据的第一输出交互信息,然后将第一输出交互信息和第二输出交互信息转换为具有主持对象的风格特征的对象交互信息,并组合成为输出语音数据,以通过智能主持对象进行播报。本申请实施例中,能够对无风格的第一输出交互信息和第二输出交互信息进行调整,得到符合智能主持对象的对话风格的对象交互信息,并输出,使得智能主持对象的播报的内容与智能主持对象的对话风格匹配,提升用户体验。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请实施例所必须的。
在上述实施例的基础上,本实施例还提供了一种语音交互装置,参照图9,具体可以包括如下模块:
输入信息获取模块902,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息。
输出信息获取模块904,用于确定语音交互中应答所述输入文本信息的输出交互信息。
交互信息获取模块906,用于依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息。
输出语音获取模块908,用于依据所述对象交互信息,确定输出语音数据。
综上,在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到输入文本信息,然后确定语音交互中应答输入文本信息的输出交互信息。在确定了输出交互信息之后,可以依据发音对象的对象参数,对无发音对象的对话风格的输出交互信息进行调整,得到具有发音对象的对话风格的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合发音对象的对话风格的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的对话风格匹配,提升用户体验。
在上述实施例的基础上,本实施例还提供了一种语音交互装置,具体可以包括如下模块:
语音识别处理模块,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息。
语义识别处理模块,用于确定输入文本信息的输入语义信息。
对话管理处理模块,用于依据所述输入语义信息,确定回复所述输入语义信息的输出语义信息。
输出交互信息确定模块,用于依据所述输出语义信息,确定对应的输出交互信息。
语言结构分析模块,用于依据语音交互的发音对象的对象参数,对输出交互信息进行分割,并确定输出交互信息对应的语言结构,所述语言结构由目标话术组件构成。
信息转换处理模块,用于利用目标话术组件对输出交互信息进行转换调整,得到发音对象的对象交互信息。
输出语音合成模块,用于依据发音对象的发音数据,将所述对象交互信息合成为输出语音数据。
在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到输入文本信息,然后对输入文本信息进行语义识别,得到输入语义信息,并依据输入语义信息确定语音交互中应答输入语义信息的输出语义信息,进而得到输出交互信息。在确定了输出交互信息之后,可以依据发音对象的对象参数,对输出交互信息进行分割,得到目标话术组件,并将多个目标话术组件对应的话术进行拼接,得到具有发音对象的对话风格的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合发音对象的对话风格的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的对话风格匹配,提升用户体验。
在上述实施例的基础上,本实施例还提供了一种数据处理装置,参照图10,具体可以包括如下模块:
目标数据处理模块1002,用于获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种。本申请实施例的第一数据的获取方式可以参考上述方法实施例中第一数据的获取方式,此处不再赘述。
数据调整处理模块1004,用于将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果。
发生器处理模块1006,用于依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。
综上,在本申请实施例中,可以将第一数据、第二数据和第三数据输入到微调模型中,对微调模型进行训练,并在训练完成之后,利用训练好的微调模型以数据迁移的方式对大量的待调整数据进行调整,得到调整结果,以依据待调整数据和对应的调整结果,确定对应的发生器。
在上述实施例的基础上,本实施例还提供了一种语音交互装置,参照图11,具体可以包括如下模块:
输入信息确定模块1102,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到导航输入信息。
输出信息确定模块1104,用于确定语音导航中应答所述导航输入信息的导航输出信息。
交互信息确定模块1106,用于依据语音导航的发音对象的对象参数,对所述导航输出信息进行调整,得到与发音对象的风格特征匹配的对象交互信息。
输出语音确定模块1108,用于依据所述对象交互信息,确定导航语音数据,并通过语音导航的发音对象播报所述导航语音数据。
综上,在本申请实施例中,可以获取用户的输入语音数据,并对输入语音数据进行语音识别,得到导航输入信息,导航输入信息除了可以包含与导航路线相关的信息之外,还可以包括其他的信息,如天气信息、路况信息等,确定导航输入信息之后,可以确定语音导航中应答导航输入信息的导航输出信息。在确定了导航输出信息之后,可以依据发音对象的对象参数,对无发音对象的对话风格的导航输出信息进行调整,得到具有发音对象的对话风格的对象交互信息,并组合成为输出语音数据。本申请实施例中,能够对无风格的导航输出信息进行调整,得到符合发音对象的对话风格的对象交互信息,并输出,使得发音对象的播报的内容与发音对象的对话风格匹配,提升用户体验。
在上述实施例的基础上,本实施例还提供了一种语音交互装置,参照图11,具体可以包括如下模块:
输入语音获得模块1202,用于获取输入语音数据和指定的智能语音客服。
输入信息获得模块1204,用于对所述输入语音数据进行语音识别,得到输入文本信息。
输出信息获得模块1206,用于确定应答所述输入文本信息的输出交互信息。
交互信息获得模块1208,用于依据智能语音客服的客服参数,对所述输出交互信息进行调整,得到与智能语音客服的风格特征匹配的客服交互信息。
输出语音获得模块1210,用于依据所述客服交互信息,确定输出语音数据,并通过智能语音客服播报所述输出语音数据。
综上,在本申请实施例中,可以获取用户的输入语音数据和用户指定的智能语音客服,并对输入语音数据进行语音识别,得到输入文本信息,然后确定语音交互中应答输入文本信息的输出交互信息。在确定了输出交互信息之后,可以依据智能语音客服的客服参数,对无智能语音客服的对话风格的输出交互信息进行调整,得到具有智能语音客服的对话风格的客服交互信息,并组合成为输出语音数据,以通过智能语音客服播报。本申请实施例中,能够对无风格的输出交互信息进行调整,得到符合智能语音客服的对话风格的对象交互信息,并输出,使得智能语音客服的播报的内容与智能语音客服的对话风格匹配,提升用户体验。
在上述实施例的基础上,本实施例还提供了一种语音交互装置,参照图13,具体可以包括如下模块:
第一输入处理模块1302,用于获取输入数据,并确定应答输入数据的第一输出交互信息。
第二输入处理模块1304,用于获取待输出的第二输出交互信息。
数据调整处理模块1306,用于依据智能主持对象的对象参数,对所述第一输出交互信息和第二输出交互信息进行调整,得到与智能主持对象的风格特征匹配的对象交互信息。
数据合成处理模块1308,用于依据所述对象交互信息,确定输出语音数据,并通过智能主持对象播报输出语音数据。
本申请实施例可以获取输入数据,并确定应答该输入数据的第一输出交互信息,然后将第一输出交互信息和第二输出交互信息转换为具有主持对象的风格特征的对象交互信息,并组合成为输出语音数据,以通过智能主持对象进行播报。本申请实施例中,能够对无风格的第一输出交互信息和第二输出交互信息进行调整,得到符合智能主持对象的对话风格的对象交互信息,并输出,使得智能主持对象的播报的内容与智能主持对象的对话风格匹配,提升用户体验。
本申请实施例还提供了一种非易失性可读存储介质,该存储介质中存储有一个或多个模块(programs),该一个或多个模块被应用在设备时,可以使得该设备执行本申请实施例中各方法步骤的指令(instructions)。
本申请实施例提供了一个或多个机器可读介质,其上存储有指令,当由一个或多个处理器执行时,使得电子设备执行如上述实施例中一个或多个所述的方法。本申请实施例中,所述电子设备包括服务器、终端设备等设备。
本公开的实施例可被实现为使用任意适当的硬件,固件,软件,或及其任意组合进行想要的配置的装置,该装置可包括服务器(集群)、终端等电子设备。图14示意性地示出了可被用于实现本申请中所述的各个实施例的示例性装置1400。
对于一个实施例,图14示出了示例性装置1400,该装置具有一个或多个处理器1402、被耦合到(一个或多个)处理器1402中的至少一个的控制模块(芯片组)1404、被耦合到控制模块1404的存储器1406、被耦合到控制模块1404的非易失性存储器(NVM)/存储设备1408、被耦合到控制模块1404的一个或多个输入/输出设备1410,以及被耦合到控制模块1404的网络接口1412。
处理器1402可包括一个或多个单核或多核处理器,处理器1402可包括通用处理器或专用处理器(例如图形处理器、应用处理器、基频处理器等)的任意组合。在一些实施例中,装置1400能够作为本申请实施例中所述服务端、终端等设备。
在一些实施例中,装置1400可包括具有指令1414的一个或多个计算机可读介质(例如,存储器1406或NVM/存储设备1408)以及与该一个或多个计算机可读介质相合并被配置为执行指令1414以实现模块从而执行本公开中所述的动作的一个或多个处理器1402。
对于一个实施例,控制模块1404可包括任意适当的接口控制器,以向(一个或多个)处理器1402中的至少一个和/或与控制模块1404通信的任意适当的设备或组件提供任意适当的接口。
控制模块1404可包括存储器控制器模块,以向存储器1406提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
存储器1406可被用于例如为装置1400加载和存储数据和/或指令1414。对于一个实施例,存储器1406可包括任意适当的易失性存储器,例如,适当的DRAM。在一些实施例中,存储器1406可包括双倍数据速率类型四同步动态随机存取存储器(DDR4SDRAM)。
对于一个实施例,控制模块1404可包括一个或多个输入/输出控制器,以向NVM/存储设备1408及(一个或多个)输入/输出设备1410提供接口。
例如,NVM/存储设备1408可被用于存储数据和/或指令1414。NVM/存储设备1408可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(HDD)、一个或多个光盘(CD)驱动器和/或一个或多个数字通用光盘(DVD)驱动器)。
NVM/存储设备1408可包括作为装置1400被安装在其上的设备的一部分的存储资源,或者其可被该设备访问可不必作为该设备的一部分。例如,NVM/存储设备1408可通过网络经由(一个或多个)输入/输出设备1410进行访问。
(一个或多个)输入/输出设备1410可为装置1400提供接口以与任意其他适当的设备通信,输入/输出设备1410可以包括通信组件、音频组件、传感器组件等。网络接口1412可为装置1400提供接口以通过一个或多个网络通信,装置1400可根据一个或多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的一个或多个组件进行无线通信,例如接入基于通信标准的无线网络,如WiFi、2G、3G、4G、5G等,或它们的组合进行无线通信。
对于一个实施例,(一个或多个)处理器1402中的至少一个可与控制模块1404的一个或多个控制器(例如,存储器控制器模块)的逻辑封装在一起。对于一个实施例,(一个或多个)处理器1402中的至少一个可与控制模块1404的一个或多个控制器的逻辑封装在一起以形成系统级封装(SiP)。对于一个实施例,(一个或多个)处理器1402中的至少一个可与控制模块1404的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器1402中的至少一个可与控制模块1404的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(SoC)。
在各个实施例中,装置1400可以但不限于是:服务器、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等终端设备。在各个实施例中,装置1400可具有更多或更少的组件和/或不同的架构。例如,在一些实施例中,装置1400包括一个或多个摄像机、键盘、液晶显示器(LCD)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(ASIC)和扬声器。
其中,检测装置中可采用主控芯片作为处理器或控制模块,传感器数据、位置信息等存储到存储器或NVM/存储设备中,传感器组可作为输入/输出设备,通信接口可包括网络接口。
本申请实施例还提供了一种电子设备,包括:处理器;和存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如本申请实施例中一个或多个所述的方法。
本申请实施例还提供了一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如本申请实施例中一个或多个所述的方法。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对本申请所提供的一种语音交互方法、一种数据处理方法、一种语音交互装置、一种数据处理装置、一种电子设备和一种存储介质,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (25)
1.一种语音交互方法,其特征在于,所述的方法包括:
获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息;
确定语音交互中应答所述输入文本信息的输出交互信息;
依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;
依据所述对象交互信息,确定输出语音数据。
2.根据权利要求1所述的方法,其特征在于,所述对象参数包括为发音对象设置的话术组件,所述话术组件用于确定输出交互信息的语言结构,所述依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息,包括:
依据发音对象的话术组件,对输出交互信息进行分割,确定构成输出交互信息的目标话术组件;
利用目标话术组件对输出交互信息进行转换调整,得到与发音对象的风格特征匹配的对象交互信息。
3.根据权利要求1所述的方法,其特征在于,所述确定语音交互中应答所述输入文本信息的输出交互信息,包括:
确定输入文本信息的输入语义信息;
依据所述输入语义信息,确定回复所述输入语义信息的输出语义信息;
依据所述输出语义信息,确定对应的输出交互信息。
4.根据权利要求1所述的方法,其特征在于,所述依据所述对象交互信息,确定输出语音数据,包括:
依据发音对象的发音数据,将所述对象交互信息合成为输出语音数据。
5.根据权利要求1所述的方法,其特征在于,所述对象参数包括为发音对象设置的话术组件,所述话术组件用于确定输出交互信息的语言结构,所述依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息,包括:
获取所述语音交互的发音对象对应的发生器;
将所述输出交互信息输入到所述发生器中,得到与发音对象的风格特征匹配的对象交互信息,所述发生器利用目标话术组件对输出交互信息进行转换调整,所述目标话术组件依据发音对象的话术组件对输出交互信息进行分割确定。
6.根据权利要求5所述的方法,其特征在于,还包括训练发生器的步骤:
获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种;
将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果;
依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。
7.根据权利要求6所述的方法,其特征在于,还包括获取第一数据的步骤:
确定发音对象的话术生成任务,所述话术生成任务用于生成具有发音对象的风格的话术,所述话术用于确定发音对象的对象交互信息;
依据所述话术生成任务,确定对应的一级话术;
对一级话术进行审核,得到审核通过的二级话术;
将二级话术转换为对话流程中的对话话术,并对话话术进行播报测试,得到第一数据。
8.一种数据处理方法,其特征在于,包括:
获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种;
将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果;
依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。
9.根据权利要求8所述的方法,其特征在于,所述依据待调整数据和调整结果,确定发音对象的对象参数,包括:
筛选符合预设条件的调整结果;
依据待调整数据和筛选出的调整结果,更新发生器中发音对象的对象参数。
10.根据权利要求8所述的方法,其特征在于,还包括获取第一数据的步骤:
确定发音对象的话术生成任务,所述话术生成任务用于生成具有发音对象的风格的话术,所述话术用于确定发音对象的对象交互信息;
依据所述话术生成任务,确定对应的一级话术;
对一级话术进行审核,得到审核通过的二级话术;
将二级话术转换为对话流程中的对话话术,并对话话术进行播报测试,得到第一数据。
11.根据权利要求10所述的方法,其特征在于,所述确定发音对象的话术生成任务,包括:
确定发音对象的话术的语言结构和风格信息,并生成话术生成任务,所述话术的语言结构由话术组件构成。
12.根据权利要求11所述的方法,其特征在于,所述对一级话术进行审核,得到审核通过的二级话术,包括:
对一级话术进行质检,并对质检后的一级话术进行筛选;
将筛选出的一级话术合成为音频数据,并进行播放试听,确定审核通过的二级话术。
13.根据权利要求12所述的方法,其特征在于,所述将二级话术转换为对话流程中的对话话术,包括:
将二级话术导入到对应的话术组件中;
确定组成对话流程中的对话话术的目标话术组件;
获取目标话术组件对应的二级话术,并进行转换,得到对话流程中的对话话术。
14.一种语音交互方法,其特征在于,包括:
获取输入语音数据,并对所述输入语音数据进行语音识别,得到导航输入信息;
确定语音导航中应答所述导航输入信息的导航输出信息;
依据语音导航的发音对象的对象参数,对所述导航输出信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;
依据所述对象交互信息,确定导航语音数据,并通过语音导航的发音对象播报所述导航语音数据。
15.一种语音交互方法,其特征在于,包括:
获取输入语音数据和指定的智能语音客服;
对所述输入语音数据进行语音识别,得到输入文本信息;
确定应答所述输入文本信息的输出交互信息;
依据智能语音客服的客服参数,对所述输出交互信息进行调整,得到与智能语音客服的风格特征匹配的客服交互信息;
依据所述客服交互信息,确定输出语音数据,并通过智能语音客服播报所述输出语音数据。
16.一种语音交互方法,其特征在于,包括:
获取输入数据,并确定应答输入数据的第一输出交互信息;
获取待输出的第二输出交互信息;
依据智能主持对象的对象参数,对所述第一输出交互信息和第二输出交互信息进行调整,得到与智能主持对象的风格特征匹配的对象交互信息;
依据所述对象交互信息,确定输出语音数据,并通过智能主持对象播报输出语音数据。
17.一种语音交互装置,其特征在于,包括:
输入信息获取模块,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到输入文本信息;
输出信息获取模块,用于确定语音交互中应答所述输入文本信息的输出交互信息;
交互信息获取模块,用于依据语音交互的发音对象的对象参数,对所述输出交互信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;
输出语音获取模块,用于依据所述对象交互信息,确定输出语音数据。
18.一种数据处理装置,其特征在于,包括:
目标数据处理模块,用于获取发音对象对应的目标数据,并输入到微调模型中对发音对象的对象参数进行训练,所述目标数据包括人工标注的第一数据、依据发音对象的风格信息进行标注的第二数据、通过翻译发音对象相关的风格数据确定的第三数据中的至少一种;
数据调整处理模块,用于将抓取的待调整数据,输入到训练完成的微调模型中进行调整,得到调整结果;
发生器处理模块,用于依据待调整数据和调整结果,确定发音对象的发生器,所述发生器包含有发音对象的对象参数。
19.一种语音交互装置,其特征在于,包括:
输入信息确定模块,用于获取输入语音数据,并对所述输入语音数据进行语音识别,得到导航输入信息;
输出信息确定模块,用于确定语音导航中应答所述导航输入信息的导航输出信息;
交互信息确定模块,用于依据语音导航的发音对象的对象参数,对所述导航输出信息进行调整,得到与发音对象的风格特征匹配的对象交互信息;
输出语音确定模块,用于依据所述对象交互信息,确定导航语音数据,并通过语音导航的发音对象播报所述导航语音数据。
20.一种语音交互装置,其特征在于,包括:
输入语音获得模块,用于获取输入语音数据和指定的智能语音客服;
输入信息获得模块,用于对所述输入语音数据进行语音识别,得到输入文本信息;
输出信息获得模块,用于确定应答所述输入文本信息的输出交互信息;
交互信息获得模块,用于依据智能语音客服的客服参数,对所述输出交互信息进行调整,得到与智能语音客服的风格特征匹配的客服交互信息;
输出语音获得模块,用于依据所述客服交互信息,确定输出语音数据,并通过智能语音客服播报所述输出语音数据。
21.一种语音交互装置,其特征在于,包括:
第一输入处理模块,用于获取输入数据,并确定应答输入数据的第一输出交互信息;
第二输入处理模块,用于获取待输出的第二输出交互信息;
数据调整处理模块,用于依据智能主持对象的对象参数,对所述第一输出交互信息和第二输出交互信息进行调整,得到与智能主持对象的风格特征匹配的对象交互信息;
数据合成处理模块,用于依据所述对象交互信息,确定输出语音数据,并通过智能主持对象播报输出语音数据。
22.一种电子设备,其特征在于,包括:处理器;和
存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如权利要求1-7、14-16中一个或多个所述的方法。
23.一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如权利要求1-7、14-16中一个或多个所述的方法。
24.一种电子设备,其特征在于,包括:处理器;和
存储器,其上存储有可执行代码,当所述可执行代码被执行时,使得所述处理器执行如权利要求8-13中一个或多个所述的方法。
25.一个或多个机器可读介质,其上存储有可执行代码,当所述可执行代码被执行时,使得处理器执行如权利要求8-13中一个或多个所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011120268.0A CN114446304A (zh) | 2020-10-19 | 2020-10-19 | 语音交互方法、数据处理方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011120268.0A CN114446304A (zh) | 2020-10-19 | 2020-10-19 | 语音交互方法、数据处理方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114446304A true CN114446304A (zh) | 2022-05-06 |
Family
ID=81357207
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011120268.0A Pending CN114446304A (zh) | 2020-10-19 | 2020-10-19 | 语音交互方法、数据处理方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114446304A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114818609A (zh) * | 2022-06-29 | 2022-07-29 | 阿里巴巴达摩院(杭州)科技有限公司 | 用于虚拟对象的交互方法、电子设备及计算机存储介质 |
-
2020
- 2020-10-19 CN CN202011120268.0A patent/CN114446304A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114818609A (zh) * | 2022-06-29 | 2022-07-29 | 阿里巴巴达摩院(杭州)科技有限公司 | 用于虚拟对象的交互方法、电子设备及计算机存储介质 |
CN114818609B (zh) * | 2022-06-29 | 2022-09-23 | 阿里巴巴达摩院(杭州)科技有限公司 | 用于虚拟对象的交互方法、电子设备及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102581346B1 (ko) | 다국어 음성 합성 및 언어간 음성 복제 | |
US10789290B2 (en) | Audio data processing method and apparatus, and computer storage medium | |
US11587569B2 (en) | Generating and using text-to-speech data for speech recognition models | |
CN110032742B (zh) | 响应语句生成设备、方法和存储介质以及语音交互系统 | |
TWI721268B (zh) | 用於語音合成的系統和方法 | |
CN113439301A (zh) | 使用序列到序列映射在模拟数据与语音识别输出之间进行协调 | |
CN113168828A (zh) | 基于合成数据训练的会话代理管线 | |
RU2692051C1 (ru) | Способ и система для синтеза речи из текста | |
CN109448699A (zh) | 语音转换文本方法、装置、计算机设备及存储介质 | |
KR101836430B1 (ko) | 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버 | |
KR102062524B1 (ko) | 음성 인식과 번역 방법 및 그를 위한 단말 장치와 서버 | |
CN113593522A (zh) | 一种语音数据标注方法和装置 | |
US9087512B2 (en) | Speech synthesis method and apparatus for electronic system | |
US20230298564A1 (en) | Speech synthesis method and apparatus, device, and storage medium | |
CN114446304A (zh) | 语音交互方法、数据处理方法、装置和电子设备 | |
Choi et al. | Learning to Maximize Speech Quality Directly Using MOS Prediction for Neural Text-to-Speech | |
CN113948062B (zh) | 数据转换方法及计算机存储介质 | |
CN113421571B (zh) | 一种语音转换方法、装置、电子设备和存储介质 | |
CN114582317A (zh) | 语音合成方法、声学模型的训练方法及装置 | |
CN115700871A (zh) | 模型训练和语音合成方法、装置、设备及介质 | |
CN113628609A (zh) | 自动音频内容生成 | |
CN113870833A (zh) | 语音合成相关系统、方法、装置及设备 | |
CN113223513A (zh) | 语音转换方法、装置、设备和存储介质 | |
KR20200011160A (ko) | 음성 인식 기술을 이용한 지능형 끝말잇기 단어 학습 방법 | |
US20220068256A1 (en) | Building a Text-to-Speech System from a Small Amount of Speech Data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |