CN117174079A - 车载语音文本分类方法、装置、电子设备及可读存储介质 - Google Patents

车载语音文本分类方法、装置、电子设备及可读存储介质 Download PDF

Info

Publication number
CN117174079A
CN117174079A CN202311123066.5A CN202311123066A CN117174079A CN 117174079 A CN117174079 A CN 117174079A CN 202311123066 A CN202311123066 A CN 202311123066A CN 117174079 A CN117174079 A CN 117174079A
Authority
CN
China
Prior art keywords
data
voice
processed
text classification
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311123066.5A
Other languages
English (en)
Inventor
代秀琼
叶松林
刘楚雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing Seres New Energy Automobile Design Institute Co Ltd
Original Assignee
Chongqing Seres New Energy Automobile Design Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing Seres New Energy Automobile Design Institute Co Ltd filed Critical Chongqing Seres New Energy Automobile Design Institute Co Ltd
Priority to CN202311123066.5A priority Critical patent/CN117174079A/zh
Publication of CN117174079A publication Critical patent/CN117174079A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)

Abstract

本申请涉及语音文本分类技术领域,提供了一种车载语音文本分类方法、装置、电子设备及可读存储介质。该方法包括:接收语音数据;对语音数据进行预处理,将已处理的语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;基于语音文本分类结果,控制车辆执行相应操作;语音文本分类模型的训练过程包括:获取训练数据;对各训练数据进行预处理;将已处理的各训练数据输入至预构建的初始模型,利用训练数据对初始模型进行训练,以得到语音文本分类模型;预处理包括为待处理数据标注音素特征,音素特征包括中文音素及英文音素,待处理数据为语音数据或训练数据。通过本申请提供的车载语音文本分类方法,能够提高训练数据量小或训练数据不均衡时的文本分类识别率。

Description

车载语音文本分类方法、装置、电子设备及可读存储介质
技术领域
本申请涉及语音文本分类技术领域,尤其涉及一种车载语音文本分类方法、装置、电子设备及可读存储介质。
背景技术
现有技术中,识别车载语音时,对语音识别结果存在着文本分类的误识别,或在接收到意图明显的语音请求时会忽略语音请求的问题。在训练语音文本分类模型时有多种语音文本分类的训练方法,例如基于统计学习的方法、基于机器学习的方法或基于深度学习的方法等,通过上述方法对语音文本分类模型进行训练,需要深入分析该模型的训练数据来源、训练数据的特征等,即需要极大训练数据量以对训练数据分析、训练及学习。然而,通过训练文本数据对模型训练的过程是对零基础的模型进行训练的,故当训练数据量不充足或不均衡的情况下,会导致降低使用已训练的语音文本分类模型对语音进行文本分类的识别率。
发明内容
有鉴于此,本申请实施例提供了一种车载语音文本分类方法、装置、电子设备及可读存储介质,以解决现有技术中需要大量训练数据以提升语音文本分类的识别率的问题。
本申请实施例的第一方面,提供了一种车载语音文本分类方法,包括:
接收语音数据;
对语音数据进行预处理,将已处理的语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;
基于语音文本分类结果,控制车辆执行相应操作;
语音文本分类模型的训练过程包括:
获取训练数据,训练数据包括中文文本及英文文本;
对各训练数据进行预处理;
将已处理的各训练数据输入至预构建的初始模型,利用训练数据对初始模型进行训练,以得到语音文本分类模型;
预处理包括为待处理数据标注音素特征,音素特征包括中文音素及英文音素,中文音素包括声母及韵母,待处理数据为语音数据或训练数据。
本申请实施例的第二方面,提供了一种车载语音文本分类装置,包括:
接收模块,被配置为接收语音数据;
处理模块,被配置为对语音数据进行预处理,将已处理的语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;
控制模块,被配置为基于语音文本分类结果,控制车辆执行相应操作;
训练模块,被配置为训练语音文本分类模型,训练的过程包括:
获取训练数据,训练数据包括中文文本及英文文本;
对各训练数据进行预处理;
将已处理的各训练数据输入至预构建的初始模型,利用训练数据对初始模型进行训练,以得到语音文本分类模型;
预处理包括为待处理数据标注音素特征,音素特征包括中文音素及英文音素,中文音素包括声母及韵母,待处理数据为语音数据或训练数据。
本申请实施例的第三方面,提供了一种电子设备,包括存储器、处理器以及存储在存储器中并且可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法的步骤。
本申请实施例的第四方面,提供了一种可读存储介质,该可读存储介质存储有计算机程序,该计算机程序被处理器执行时实现上述方法的步骤。
本申请实施例与现有技术相比存在的有益效果是:接收语音数据;对语音数据进行预处理,将已处理的语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;基于语音文本分类结果,控制车辆执行相应操作;语音文本分类模型的训练过程包括:获取训练数据,训练数据包括中文文本及英文文本;对各训练数据进行预处理;将已处理的各训练数据输入至预构建的初始模型,利用训练数据对初始模型进行训练,以得到语音文本分类模型;预处理包括为待处理数据标注音素特征,音素特征包括中文音素及英文音素,中文音素包括声母及韵母,待处理数据为语音数据或训练数据。通过本申请提供的车载语音文本分类方法,在接收到语音数据后,能够将语音数据拆解为中文音素、英文音素,其中,中文音素包括声母及韵母对应的中文音素,以在通过已训练的语音文本分类模型进行语音文本分类时,提升文本分类的识别率,通过英文音素对英文进行标注,能够减少特征维度,缩短语音文本分类模型的训练时间。在训练语音文本分类模型时,通过预构建的初始模型进行训练,能够避免训练数据量小或训练数据不均衡导致的文本分类识别率低的问题,并提高语音文本分类模型的分类能力。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本申请实施例的一种应用场景的场景示意图;
图2是本申请实施例提供的一种车载语音文本分类方法的流程示意图;
图3是本申请实施例提供的一种注意力机制模型的构造示意图;
图4是本申请实施例提供的一种车载语音文本分类装置的示意图;
图5是本申请实施例提供的电子设备的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
下面将结合附图详细说明根据本申请实施例的一种车载语音文本分类方法和装置。
图1是本申请实施例的一种应用场景的场景示意图。该应用场景可以包括第一终端设备101、第二终端设备102和第三终端设备103、服务器104以及网络105。
第一终端设备101、第二终端设备102和第三终端设备103可以是硬件,也可以是软件。当第一终端设备101、第二终端设备102和第三终端设备103为硬件时,其可以是具有显示屏且支持与服务器104通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、车载电脑、整车控制器和台式计算机等;当第一终端设备101、第二终端设备102和第三终端设备103为软件时,其可以安装在如上的电子设备中。第一终端设备101、第二终端设备102和第三终端设备103可以实现为多个软件或软件模块,也可以实现为单个软件或软件模块,本申请实施例对此不作限制。进一步地,第一终端设备101、第二终端设备102和第三终端设备103上可以安装有各种应用,例如数据处理应用、即时通信工具、社交平台软件、搜索类应用、购物类应用等。
服务器104可以是提供各种服务的服务器,例如,对与其建立通信连接的终端设备发送的请求进行接收的后台服务器,该后台服务器可以对终端设备发送的请求进行接收和分析等处理,并生成处理结果。服务器104可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者还可以是一个云计算服务中心,本申请实施例对此不作限制。
需要说明的是,服务器104可以是硬件,也可以是软件。当服务器104为硬件时,其可以是为第一终端设备101、第二终端设备102和第三终端设备103提供各种服务的各种电子设备。当服务器104为软件时,其可以是为第一终端设备101、第二终端设备102和第三终端设备103提供各种服务的多个软件或软件模块,也可以是为第一终端设备101、第二终端设备102和第三终端设备103提供各种服务的单个软件或软件模块,本申请实施例对此不作限制。
网络105可以是采用同轴电缆、双绞线和光纤连接的有线网络,也可以是无需布线就能实现各种通信设备互联的无线网络,例如,蓝牙(Bluetooth)、近场通信(Near FieldCommunication,NFC)、红外(Infrared)等,本申请实施例对此不作限制。
需要说明的是,第一终端设备101、第二终端设备102和第三终端设备103、服务器104以及网络105的具体类型、数量和组合可以根据应用场景的实际需求进行调整,本申请实施例对此不作限制。
图2是本申请实施例提供的一种车载语音文本分类方法的流程示意图。如图2所示,该车载语音文本分类方法包括以下步骤:
S201,接收语音数据;
S202,对语音数据进行预处理,将已处理的语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果,预处理包括为待处理数据标注音素特征,音素特征包括中文音素及英文音素,中文音素包括声母及韵母,待处理数据为语音数据或训练数据;
S203,基于语音文本分类结果,控制车辆执行相应操作;
语音文本分类模型的训练过程包括:
获取训练数据;
对各训练数据进行预处理;
将已处理的各训练数据输入至预构建的初始模型,利用训练数据对初始模型进行训练,以得到语音文本分类模型。
图2的车载语音文本分类方法可以由图1的终端设备的整车控制器或车载电脑执行。
其中,训练数据包括中文文本及英文文本。
通过语音采集传感器实时监听用户的语音,将语音采集传感器监听得到的语音作为接收的语音数据。
对语音数据进行预处理,其中,预处理包括按照音素表标注音素特征,将经过预处理的语音数据作为已处理的语音数据,输入至已训练的语音文本分类模型,以对语音数据进行文本分类,得到语音文本分类结果,根据语音文本分类结果控制车辆相关部件执行相应操作。
其中,音素特征包括中文音素及英文音素,中文音素包括声母及韵母,韵母为不包括声调的韵母。
本申请一示例性实施例中,以接收的语音数据为“dǎkāi chēchuànɡ”为例,进行示例性说明,对该语音数据进行预处理,得到对应的中文音素“d a k ai ch e ch uang”,将该语音数据及对应的中文音素输入至已训练的语音文本分类模型,得到的语音文本分类结果为“打开车窗”,整车控制器根据语音文本分类结果“打开车窗”控制车辆的车窗下降。
语音文本分类模型的训练过程为获取训练数据,训练数据中包括中文文本及英文文本,中文文本及英文文本之间存在对应关系,例如训练数据的中文文本为“打开车窗”,则英文文本为“window”,将“打开车窗window”作为一条训练数据。
对各训练数据进行预处理,预处理包括为训练数据的中文文本标注中文音素,为训练数据的英文文本标注英文音素,其中,中文音素包括声母及韵母对应的音素。经过预处理的训练数据作为已处理的训练数据,将每一条已处理的训练数据输入至预构建的初始模型,利用所有已处理的训练数据对初始模型进行训练,得到语音文本分类模型。
根据本申请实施例提供的技术方案,能够通过包括标注音素的预处理处理训练数据,得到已处理的训练数据,并通过已处理的训练数据对初始模型进行训练,得到已训练的语音文本分类模型。通过已训练的语音文本分类模型对接收到的语音数据进行语音文本分类,以得到语音文本分类结果,并根据语音文本分类结果控制车辆执行相应操作。根据语音文本分类时的预处理及语音文本分类模型,能够提升文本分类识别率,提升用户通过语音发送指令时的体验感。
在一些实施例中,获取训练数据,包括:
基于记录的车载语音对话,确定第一文本数据和第二文本数据中的一种或两种作为训练数据,其中,第一文本数据为基于车载语音对话确定的文本数据,第二文本数据为基于车载语音对话构造的与车载语音对话内容格式一致的文本数据。
根据记录的车载语音对话,进行分析,以确定车载语音对话的应用场景。将记录的车载语音对话进行处理,得到对应的文本数据,将该文本数据作为第一文本数据。按照记录的车载语音对话内容及格式,在车载语音对话的应用场景下,构造与车载语音对话内容格式一致的文本数据,作为第二文本数据。
训练数据中包括第一文本数据和第二文本数据中的一种或两种,即将第一文本数据作为训练数据,或将第二文本数据作为训练数据,或将第一文本数据及第二文本数据作为训练数据。
根据本申请实施例提供的技术方案,能够在一定程度上保证训练数据的数据量充足,并且使得训练数据能够更加贴合用户的习惯及应用场景,从而训练得到的语音文本分类模型更贴合用户的习惯及车内的场景。
在一些实施例中,为待处理数据标注音素特征之前,预处理的过程还包括:
对待处理数据进行清洗操作,清洗操作包括去除空格及去除特殊字符的操作。
本申请一示例性实施例中,清洗待处理数据,去除待处理数据中的空格及特殊字符,使得待处理数据为干净的待处理数据,例如,已清洗的待处理数据为“风量调小#airConditioning”。
其中,待处理数据包括训练数据及语音数据。
根据本申请实施例提供的技术方案,能够通过干净的训练数据训练语音文本分类模型,提升通过语音文本分类模型文本分类语音的文本分类识别率,在接收到语音数据时,能够对语音数据进行清洗,从而提升语音文本分类模型的文本分类识别率,提升用户使用车载语音时的体验感。
在一些实施例中,构建初始模型的过程包括:
基于Albert预训练的文本分类模型构建初始模型。
本申请一示例性实施例中,根据已清洗的训练数据构建训练集、验证集及测试集,根据Albert预训练的文本分类模型构建初始模型,该模型是在Bert预训练的文本分类模型上进行优化得到的,采用了轻量化的模型结构,与现有技术中根据Bert预训练的文本分类模型相比,提升了模型的训练和推理效率。
接述上例,Bert预训练的文本分类模型是一种基于Transformer(一种常见模型)的双向编码表示的预构建模型,Bert预训练的文本分类模型包括两个任务,分别是预测句子中被掩盖的词以及判断输入的两个句子是不是上下句(即两个句子是否有连贯性)。在Bert预训练的文本分类模型上根据特定任务添加相应的网络结构,可以完成自然语言处理NLP(Natural Language Processing)的下游任务,比如文本分类的任务。Bert预训练的文本分类模型的整体框架是由多层Transformer的编码器Encoder堆叠而成的,包含多个注意力机制,每个注意力机制的计算包括三个步骤:计算词之前的相关度、归一化相关度及通过相关度和所有词的编码进行加权求和以获取目标词的编码。其中,注意力机制的核心是自注意力机制。
图3是本申请实施例提供的一种注意力机制模型的构造示意图,如图3所示,每次自注意力机制的计算涉及三个中间权重矩阵Wq、Wk及Wv,这三个中间权重矩阵分别对输入的待处理数据进行线性变换,生成队列Query、关键字Key和值Value这三个新的张量tensor,整体的计算步骤如下:
第一步:输入待处理数据,将待处理数据分别与Wq、Wk及Wv矩阵相乘,得到Q、K及V。
第二步:将Q、K矩阵相乘,得到待处理数据中各个词之间的相关度,为了防止结果过大,在相乘之后除以他们维度的均方根。
similarity(Query,Keyi)=Query*Keyi
第三步:将根据第二步得到的相关度通过Softmax函数进行归一化,得到归一化后各个词与其他词的相关度。
第四步:将根据第三步得到的相关度矩阵与V相乘,即对相关度进行加权求和,得到待处理数据中每个词新的向量编码。
接述上例,Albert预训练的文本分类模型对Bert预训练的文本分类模型分为三个方向进行优化,分别是:
(1)向量参数分解法:
将一个非常大的词汇向量矩阵分解为两个小矩阵,例如词汇量大小是V,向量维度是E,隐藏层向量为H,则原始词汇向量参数大小为:V*H。
Albert预训练的文本分类模型将原始embedding映射到V*E(低维度的向量),然后映射到隐藏空间H,从而使参数量从V*H下降到:V*E+E*H,极大程度上降低了参数量大小。
再对嵌入矩阵分解,解除词嵌入和隐含层大小的关系,以便于隐含层大小的扩展而不剧烈增加模型参数。
(2)层之间参数共享:
基础的Bert预训练的文本分类模型总共由12层的transformer的encoder部分组成,通过层参数共享的方法避免了随着模型深度的加深带来的参数量增大。其中,具体的共享参数有这几种,注意力机制attention参数共享、前馈神经网络ffn残差网络参数共享。
使用跨层参数共享的方法会略微降低模型性能,但是可以极大降低模型的参数量,收益很高。
(3)句子顺序预测SOP(sentence-order prediction)预训练任务:
Bert预训练的文本分类模型由两个任务组成,分别是maskLM(用于预测被遮盖的词语)和下一句预测NSP(Next Sentence Prediction),其中,maskLM通过预测遮盖掉的词语来实现真正的双向transformer,NSP类似于语义匹配的任务,用以预测句子A和句子B是否匹配,是一个二分类的任务,其中正样本从待处理数据中获得,负样本为随机负采样获得的。
其中,NSP任务可以提高下游任务的性能,比如句子对的关系预测。NSP和SOP的区别在于,对于待处理数据中的句子A和B,NSP任务正样本是AB,负样本是AC;而SOP任务正样本是AB,负样本是BA。由此可以看出SOP任务更加难,引入SOP能够更为有力的学习句子间的连贯性。
本申请一示例性实施例中,根据Albert预训练的文本分类模型构建初始模型的结构包括:词典大小21128,令牌token(即输入层)的向量维度是512,隐藏层个数为312,每个隐藏层中的多头注意力机制multi-head-attention的个数为12个,隐藏层中经过多头注意力机制后的中间层的维度是1248,然后加一个全连接层,最后经过Softmax层输出,输出维度为分类个数75。
其中,词典表示了Albert预训练的文本分类模型所使用的所有可能的词汇集合。它是一个包含了所有预定义的词汇项的列表,每个词汇项通常由一个唯一的标识符(ID)和对应的词语组成。
token的向量维度表示文本经过分词得到所有的token,每个token需要通过向量表示才能作为特征向量输入模型,因此向量维度表示用512维的向量表示一个token。
输入层:输入层将文本序列中的每个词汇单元映射为固定维度的向量表示,称为嵌入(Embedding)。输入层的目的是为了将原始文本数据转换为模型可以处理的连续向量表示。
隐藏层:隐藏层是Albert模型中的Transformer层,由多个重复的Transformer层组成。每个Transformer层由自注意力机制和前馈神经网络子层组成。多头注意力机制是一种在自注意力机制基础上的改进,它通过并行计算多个注意力机制,从而允许模型在不同的表示空间中学习不同的关系。在ALBERT模型中,通常采用12个多头注意力机制。
全连接层:全连接层是将Albert模型的输出映射到低维度的表示空间。
Softmax层:Softmax层是一个分类层,用于将最后一个隐藏层的表示映射到预定义的类别标签上。它通过应用Softmax函数将向量的元素转换为概率分布,表示每个类别的概率。
根据本申请实施例提供的技术方案,基于Albert预训练的文本分类模型构建初始模型,能够避免训练数据量小或训练数据不均衡导致的文本分类识别率低的问题,从而提高语音文本分类模型的分类能力,且训练过程更为快速。
在一些实施例中,为待处理数据标注音素特征,包括:
基于分词词典,对待处理数据进行分词,以获取待处理数据的中文文本对应的字符特征及词特征;
为字符特征及词特征标注拼音;
基于中英文音素词典,对拼音标注中文音素,并对英文文本标注英文音素。
预处理还包括:依次拼接中文文本、词特征、字符特征、标注的中文音素、英文文本及标注的英文音素,得到已处理数据,已处理数据包括语音数据、训练数据。
本申请一示例性实施例中,以待处理数据为“风量调小#airConditioning”进行示例性说明。
分词时,利用jieba分词的方法,并引入分词词典对待处理数据进行分词,以获取待处理数据的中文文本对应的字符特征及词特征,分词后得到“风量调小#风量调小#风量调小#airConditioning”。其中,“风量”为词特征,“风”、“量”、“调”、“小”为字符特征。其中,使用“#”将中文文本、分词、英文文本进行拼接。
对分词后的字符特征及词特征进行拼音标注,拼音标注的方法为pypinyin标注,以明确多音字在语境中的正确发音,得到“风量调小#风量调小#风量调小#feng1 liang4tiao4 xiao3#airConditioning”。其中,数字代表中文文本对应的音调。
根据中英文音素词典,对拼音标注对应的中文音素,并对英文文本标注对应的英文音素。对拼音标注对应的中文音素时,去掉拼音中的音调,保留拼音的声母及韵母,标注结果为“风量调小#风量调小#风量调小#f eng l iang tiao x iao#airConditioning”,通过对拼音标注对应中文音素,能够使得“冯亮调小”、“峰良眺肖”等经过标注的中文音素完全一致,因此语音文本分类模型可以对诸如“峰良眺肖”语音音调错误、拼写错误或同音字的文本进行文本分类,以提高语音文本分类模型的泛化能力。
同时,依次按照中文文本、词特征、字符特征、标注的中文音素、英文文本,通过“#”进行拼接。
接述上例,若对英文文本进行标注时用单词的每个子母作为特征,会导致特征数量过大,使特征数量爆炸性增长,造成维度灾难,导致在训练语音文本分类模型时,需要更多的计算资源和时间,增加了训练数据的噪音,极大程度上增高了语音文本分类模型学习和分类文本数据的难度。本申请实施例对英文单词采用英文音素标注,能够减少特征维度,缩短语音文本分类模型的训练时间,并且英文音素能够表示单词的音义特点,有利于数据表征。将标注的英文音素通过“#”拼接在“风量调小#风量调小#风量调小#f eng l iang tiao xiao#airConditioning”之后。
其中,通过训练数据对语音文本分类模型进行训练时,训练数据中包括多个声母及韵母相同但音调不同的训练数据。
表1及表2示例性的示出了中英文音素表,按照表1及表2示出的中英文音素表对中文文本及英文文本进行标注即可,其中,表1为中文音素表,第一列为表音的韵母,数字1-4代表一声调至四声调,5代表轻声,第二列为第一列韵母及音素的对应关系,第三列为韵母对应的中文文本。表2为英文音素表,第一列为英文单词的部分组成部分,第二列为与第一列对应的英文音素。
表1中文音素表
韵母 中文音素 中文文本
a1 aa a1 阿啊呵腌吖錒
a2 aa a2 啊呵嗄
a3 aa a3 啊呵
a4 aa a4 啊呵
a5 aa a5 啊呵
ai1 aa ai1 哀挨埃唉哎捱锿诶
ai2 aa ai2 呆挨癌皑捱矮
ai3 aa ai3 矮哎蔼霭暖
ai4 aa ai4 爱碍艾唉哎隘暖嗳瑷嗌媛砹爱
an1 aa an1 安谙鞍氨庵桉鹌
an3 aa an3 俺铵揞埯
an4 aa ai4 案按暗岸黯胺犴
ang1 aa ang1
ang2 aa ang2
ang4 aa ang4
ao1 aa ao1 熬凹
ao2 aa ao2 熬敖嚣嗷鏖整翱獒聱螯廒遨
ao3 aa ao3 袄拗媪
表2英文音素表
英文文本 英文音素
ABELLO EY B EH L OW
ABELLO'S EY B EH L OW Z
ABELLS EY B EH L Z
ABELMAN EY B EH L M AE N
ABELMANN EY B EH L M AE N
ABELMANN'S EY B EH L M AE N EH N Z
ABELOW EY BL OW
ABELSEN EY B EH L S EH N
ABELSON EY B EH L S AH N
ABELSON'S EY B EH L S AH N Z
ABER'S EY B AA Z
ABERCARN AE B AX KAAN
ABERDARE AE B AX D EA
ABERDARE AE B AX D EA R
ABERDARES AE B AX D EA R Z
ABERDARES AE B AX D EA Z
ABERDEEN AE B AX D IY N
ABERDEEN'S AE B AX D IY N Z
ABERDEENS AE B AX D IY N Z
ABERDEVINE AE B AX D AX V AY N
根据本申请实施例提供的技术方案,通过多特征融合与预训练模型相结合的领域分类方法,通过字符特征和词特征能够缓解短文本的弱结构化的缺点,引入中文音素标注中文文本能够有效避免通过语音文本分类模型进行语音文本分类时的误识别的问题,或有效避免在有意图明显的请求时被忽略的问题,引入英文音素对英文文本进行标注,可以减少特征维度,缩短训练语音文本分类模型的时间,并且能够明确表示英文单词的音义特点,有利于数据表征。
本申请实施例提供的技术方案可用于车载语音文本分类,通过车载语音对应的文本确定文本对应的领域,以控制车辆执行相应操作,还可用于其他领域的文本数据分类,例如医疗领域、百科领域或交通领域等。
上述所有可选技术方案,可以采用任意结合形成本申请的可选实施例,在此不再一一赘述。
下述为本申请装置实施例,可以用于执行本申请方法实施例。对于本申请装置实施例中未披露的细节,请参照本申请方法实施例。
图4是本申请实施例提供的一种车载语音文本分类装置的示意图。如图4所示,该车载语音文本分类装置包括:接收模块401,处理模块402,控制模块403及训练模块404。
接收模块401,被配置为接收语音数据;
处理模块402,被配置为对语音数据进行预处理,将已处理的语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;
控制模块403,被配置为基于语音文本分类结果,控制车辆执行相应操作;
训练模块404,被配置为训练语音文本分类模型,训练的过程包括:
获取训练数据,训练数据包括中文文本及英文文本;
对各训练数据进行预处理;
将已处理的各训练数据输入至预构建的初始模型,利用训练数据对初始模型进行训练,以得到语音文本分类模型;
预处理包括为待处理数据标注音素特征,音素特征包括中文音素及英文音素,中文音素包括声母及韵母,待处理数据为语音数据或训练数据。
在一些实施例中,训练模块404被配置为获取训练数据,用于:
基于记录的车载语音对话,确定第一文本数据和第二文本数据中的一种或两种作为训练数据,其中,第一文本数据为基于车载语音对话确定的文本数据,第二文本数据为基于车载语音对话构造的与车载语音对话内容格式一致的文本数据。
在一些实施例中,训练模块404还被配置为为待处理数据标注音素特征之前,预处理的过程,用于:
对待处理数据进行清洗操作,清洗操作包括去除空格及去除特殊字符的操作。
在一些实施例中,训练模块404被配置为构建初始模型,用于:
基于Albert预训练的文本分类模型构建初始模型。
在一些实施例中,训练模块404被配置为为待处理数据标注音素特征,用于:
基于分词词典,对待处理数据进行分词,以获取待处理数据的中文文本对应的字符特征及词特征;
为字符特征及词特征标注拼音;
基于中英文音素词典,对拼音标注中文音素,并对英文文本标注英文音素。
在一些实施例中,训练模块404还被配置为用于预处理,预处理的过程包括:
拼接待处理数据、字符特征、词特征及音素特征,得到已处理数据,已处理数据包括语音数据、训练数据。
在一些实施例中,训练模块404被配置为拼接待处理数据、字符特征、词特征及音素特征,得到已处理数据,用于:
依次拼接中文文本、词特征、字符特征、标注的中文音素、英文文本及标注的英文音素,得到已处理数据。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
图5是本申请实施例提供的电子设备5的示意图。如图5所示,该实施例的电子设备5包括:处理器501、存储器502以及存储在该存储器502中并且可在处理器501上运行的计算机程序503。处理器501执行计算机程序503时实现上述各个方法实施例中的步骤。或者,处理器501执行计算机程序503时实现上述各装置实施例中各模块/单元的功能。
电子设备5可以是桌上型计算机、笔记本、掌上电脑及云端服务器等电子设备。电子设备5可以包括但不仅限于处理器501和存储器502。本领域技术人员可以理解,图5仅仅是电子设备5的示例,并不构成对电子设备5的限定,可以包括比图示更多或更少的部件,或者不同的部件。
处理器501可以是中央处理单元(Central Processing Unit,CPU),也可以是其它通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其它可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。
存储器502可以是电子设备5的内部存储单元,例如,电子设备5的硬盘或内存。存储器502也可以是电子设备5的外部存储设备,例如,电子设备5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。存储器502还可以既包括电子设备5的内部存储单元也包括外部存储设备。存储器502用于存储计算机程序以及电子设备所需的其它程序和数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读存储介质(例如计算机可读存储介质)中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,计算机程序可以存储在计算机可读存储介质中,该计算机程序在被处理器执行时,可以实现上述各个方法实施例的步骤。计算机程序可以包括计算机程序代码,计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。计算机可读存储介质可以包括:能够携带计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random AccessMemory,RAM)、电载波信号、电信信号以及软件分发介质等。
以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种车载语音文本分类方法,其特征在于,包括:
接收语音数据;
对所述语音数据进行预处理,将已处理的所述语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;
基于所述语音文本分类结果,控制车辆执行相应操作;
所述语音文本分类模型的训练过程包括:
获取训练数据,所述训练数据包括中文文本及英文文本;
对各所述训练数据进行预处理;
将已处理的各所述训练数据输入至预构建的初始模型,利用所述训练数据对所述初始模型进行训练,以得到所述语音文本分类模型;
所述预处理包括为待处理数据标注音素特征,所述音素特征包括中文音素及英文音素,所述中文音素包括声母及韵母,所述待处理数据为所述语音数据或所述训练数据。
2.根据权利要求1所述的方法,其特征在于,获取训练数据,包括:
基于记录的车载语音对话,确定第一文本数据和第二文本数据中的一种或两种作为所述训练数据,其中,第一文本数据为基于所述车载语音对话确定的文本数据,第二文本数据为基于所述车载语音对话构造的与所述车载语音对话内容格式一致的文本数据。
3.根据权利要求1所述的方法,其特征在于,为待处理数据标注音素特征之前,所述预处理的过程还包括:
对所述待处理数据进行清洗操作,所述清洗操作包括去除空格及去除特殊字符的操作。
4.根据权利要求1所述的方法,其特征在于,构建所述初始模型的过程包括:
基于Albert预训练的文本分类模型构建所述初始模型。
5.根据权利要求1至4中任一项所述的方法,其特征在于,为待处理数据标注音素特征,包括:
基于分词词典,对所述待处理数据进行分词,以获取所述待处理数据的中文文本对应的字符特征及词特征;
为所述字符特征及所述词特征标注拼音;
基于中英文音素词典,对所述拼音标注所述中文音素,并对所述英文文本标注所述英文音素。
6.根据权利要求5所述的方法,其特征在于,所述预处理还包括:
拼接所述待处理数据、所述字符特征、所述词特征及所述音素特征,得到所述已处理数据,所述已处理数据包括所述语音数据、所述训练数据。
7.根据权利要求6所述的方法,其特征在于,拼接所述待处理数据、所述字符特征、所述词特征及所述音素特征,得到所述已处理数据,包括:
依次拼接所述中文文本、所述词特征、所述字符特征、标注的所述中文音素、所述英文文本及标注的所述英文音素,得到所述已处理数据。
8.一种车载语音文本分类装置,其特征在于,包括:
接收模块,被配置为接收语音数据;
处理模块,被配置为对所述语音数据进行预处理,将已处理的所述语音数据作为输入数据输入至已训练的语音文本分类模型,得到语音文本分类结果;
控制模块,被配置为基于所述语音文本分类结果,控制车辆执行相应操作;
训练模块,被配置为训练所述语音文本分类模型,所述训练的过程包括:
获取训练数据,所述训练数据包括中文文本及英文文本;
对各所述训练数据进行预处理;
将已处理的各所述训练数据输入至预构建的初始模型,利用所述训练数据对所述初始模型进行训练,以得到所述语音文本分类模型;
所述预处理包括为待处理数据标注音素特征,所述音素特征包括中文音素及英文音素,所述中文音素包括声母及韵母,所述待处理数据为所述语音数据或所述训练数据。
9.一种电子设备,包括存储器、处理器以及存储在所述存储器中并且可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述方法的步骤。
10.一种可读存储介质,所述可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述方法的步骤。
CN202311123066.5A 2023-08-31 2023-08-31 车载语音文本分类方法、装置、电子设备及可读存储介质 Pending CN117174079A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311123066.5A CN117174079A (zh) 2023-08-31 2023-08-31 车载语音文本分类方法、装置、电子设备及可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311123066.5A CN117174079A (zh) 2023-08-31 2023-08-31 车载语音文本分类方法、装置、电子设备及可读存储介质

Publications (1)

Publication Number Publication Date
CN117174079A true CN117174079A (zh) 2023-12-05

Family

ID=88929229

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311123066.5A Pending CN117174079A (zh) 2023-08-31 2023-08-31 车载语音文本分类方法、装置、电子设备及可读存储介质

Country Status (1)

Country Link
CN (1) CN117174079A (zh)

Similar Documents

Publication Publication Date Title
Alnuaim et al. Speaker gender recognition based on deep neural networks and ResNet50
CN113205817B (zh) 语音语义识别方法、系统、设备及介质
CN110457432B (zh) 面试评分方法、装置、设备及存储介质
CN111695352A (zh) 基于语义分析的评分方法、装置、终端设备及存储介质
CN110377916B (zh) 词预测方法、装置、计算机设备及存储介质
CN109686383B (zh) 一种语音分析方法、装置及存储介质
CN109271493A (zh) 一种语言文本处理方法、装置和存储介质
CN107564511A (zh) 电子装置、语音合成方法和计算机可读存储介质
CN112259089B (zh) 语音识别方法及装置
CN111062217A (zh) 语言信息的处理方法、装置、存储介质及电子设备
CN113420556B (zh) 基于多模态信号的情感识别方法、装置、设备及存储介质
CN113990352B (zh) 用户情绪识别与预测方法、装置、设备及存储介质
CN111651497A (zh) 用户标签挖掘方法、装置、存储介质及电子设备
CN112349294B (zh) 语音处理方法及装置、计算机可读介质、电子设备
WO2023045186A1 (zh) 意图识别方法、装置、电子设备和存储介质
CN115168590A (zh) 文本特征提取方法、模型训练方法、装置、设备及介质
CN114722832A (zh) 一种摘要提取方法、装置、设备以及存储介质
Coto‐Solano Computational sociophonetics using automatic speech recognition
Bai et al. Integrating knowledge into end-to-end speech recognition from external text-only data
CN111414748A (zh) 话务数据处理方法及装置
CN114218356B (zh) 基于人工智能的语义识别方法、装置、设备及存储介质
CN111401069A (zh) 会话文本的意图识别方法、意图识别装置及终端
CN115827865A (zh) 一种融合多特征图注意力机制的不良文本分类方法及系统
CN115376547A (zh) 发音评测方法、装置、计算机设备和存储介质
CN115292492A (zh) 意图分类模型的训练方法、装置、设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination