CN114974219A - 语音识别方法、语音识别装置、电子设备及存储介质 - Google Patents

语音识别方法、语音识别装置、电子设备及存储介质 Download PDF

Info

Publication number
CN114974219A
CN114974219A CN202210600295.0A CN202210600295A CN114974219A CN 114974219 A CN114974219 A CN 114974219A CN 202210600295 A CN202210600295 A CN 202210600295A CN 114974219 A CN114974219 A CN 114974219A
Authority
CN
China
Prior art keywords
target
vector
feature
hidden state
pooling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210600295.0A
Other languages
English (en)
Inventor
郭洋
王健宗
程宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN202210600295.0A priority Critical patent/CN114974219A/zh
Publication of CN114974219A publication Critical patent/CN114974219A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例提供了一种语音识别方法、语音识别装置、电子设备及存储介质,属于人工智能技术领域。该方法包括:获取目标说话人的目标语音数据;对目标语音数据进行频谱分析,得到目标梅尔倒谱系数;对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量;对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,其中,目标人物标签用于表征目标说话人的身份。本申请实施例能够提高语音识别的准确性。

Description

语音识别方法、语音识别装置、电子设备及存储介质
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语音识别方法、语音识别装置、电子设备及存储介质。
背景技术
目前,常常通过高斯建模的方式来识别语音数据对应的说话人身份,这一方式往往需要经过较为复杂的高斯计算,会存在较大的出错风险,影响语音识别的准确性,因此,如何提高语音识别的准确性,成为了亟待解决的技术问题。
发明内容
本申请实施例的主要目的在于提出一种语音识别方法、语音识别装置、电子设备及存储介质,旨在提高语音识别的准确性。
为实现上述目的,本申请实施例的第一方面提出了一种语音识别方法,所述方法包括:
获取目标说话人的目标语音数据;
对所述目标语音数据进行频谱分析,得到目标梅尔倒谱系数;
对所述目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;
通过预设的残差网络对所述第一隐状态特征进行特征提取,得到目标语音特征;
通过预设的池化网络对所述目标语音特征进行池化处理,得到目标语音向量;
对所述目标语音向量进行解码处理,得到所述目标语音数据对应的目标人物标签,其中,所述目标人物标签用于表征所述目标说话人的身份。
在一些实施例,所述通过预设的残差网络对所述第一隐状态特征进行特征提取,得到目标语音特征的步骤,包括:
通过所述残差网络对所述第一隐状态特征进行卷积处理,得到第一卷积特征向量;
通过所述残差网络的激活函数对所述第一隐状态特征进行激活处理,得到目标激活特征向量;
根据预设的权重参数对所述第一卷积特征和所述目标激活特征向量进行求和处理,得到所述目标语音特征。
在一些实施例,所述激活函数包括第一函数和第二函数,所述通过所述残差网络的激活函数对所述第一隐状态特征进行激活处理,得到目标激活特征向量的步骤,包括:
通过所述第一激活函数对所述第一隐状态特征进行激活处理,得到第一激活特征向量;
通过所述第二激活函数对所述第一隐状态特征进行激活处理,得到第二激活特征向量;
对所述第一激活特征向量和所述第二激活特征向量进行点乘处理,得到所述目标激活特征向量。
在一些实施例,所述池化网络包括第一卷积层、池化层以及第二卷积层,所述通过预设的池化网络对所述目标语音特征进行池化处理,得到目标语音向量的步骤,包括:
通过所述第一卷积层对所述目标语音特征进行变维处理,得到第二隐状态特征;
通过所述池化层对所述第二隐状态特征进行池化处理,得到中间向量;
通过所述第二卷积层对所述中间向量进行变维处理,得到所述目标语音向量。
在一些实施例,所述通过所述池化层对所述第二隐状态特征进行池化处理,得到中间向量的步骤,包括:
通过所述池化层和预设的时序维度对所述第二隐状态特征进行均值计算,得到隐状态均值;
通过所述池化层和所述时序维度对所述第二隐状态特征进行标准差计算,得到隐状态标准差;
根据所述隐状态均值和隐状态标准差对所述第二隐状态特征进行池化处理,得到所述中间向量。
在一些实施例,所述对所述目标语音向量进行解码处理,得到所述目标语音数据对应的目标人物标签的步骤,包括:
通过预设函数和预设人物标签对所述目标语音向量进行标签概率计算,得到每一所述预设人物标签对应的标签概率向量;
选取数值最大的标签概率向量对应的预设人物标签作为所述目标人物标签。
在一些实施例,所述对所述目标语音数据进行频谱分析,得到目标梅尔倒谱系数的步骤,包括:
对所述目标语音数据进行声谱计算,得到目标频谱图;
对所述目标频谱图进行滤波处理,得到目标梅尔倒谱系数。
为实现上述目的,本申请实施例的第二方面提出了一种语音识别装置,所述装置包括:
数据获取模块,用于获取目标说话人的目标语音数据;
分析模块,用于对所述目标语音数据进行频谱分析,得到目标梅尔倒谱系数;
变维模块,用于对所述目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;
特征提取模块,用于通过预设的残差网络对所述第一隐状态特征进行特征提取,得到目标语音特征;
池化模块,用于通过预设的池化网络对所述目标语音特征进行池化处理,得到目标语音向量;
解码模块,用于对所述目标语音向量进行解码处理,得到所述目标语音数据对应的目标人物标签,其中,所述目标人物标签用于表征所述目标说话人的身份。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第四方面提出了一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现上述第一方面所述的方法。
本申请提出的语音识别方法、语音识别装置、电子设备及存储介质,其通过获取目标说话人的目标语音数据;对目标语音数据进行频谱分析,得到目标梅尔倒谱系数,能够较为方便地将语音数据转换为频谱特征,并对频谱特征进行分析处理,得到目标梅尔倒谱系数,使得能够通过频谱特征来识别出说话人的身份,提高了识别准确性。进一步地,对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量,能够通过变维处理将目标梅尔倒谱系数对应的隐状态特征映射到特定的向量维度,通过池化处理来改变隐状态特征的时序状态,从而得到符合需求的目标语音向量,将目标语音向量作为识别目标说话人的身份的特征向量。最后,对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,从而方便地根据对应的目标人物标签确定目标说话人的身份,提高了语音识别的准确性。
附图说明
图1是本申请实施例提供的语音识别方法的流程图;
图2是图1中的步骤S102的流程图;
图3是图1中的步骤S104的流程图;
图4是图3中的步骤S302的流程图;
图5是图1中的步骤S105的流程图;
图6是图5中的步骤S502的流程图;
图7是图1中的步骤S106的流程图;
图8是本申请实施例提供的语音识别装置的结构示意图;
图9是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(Natural Language Processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
信息抽取(Information Extraction):从自然语言文本中抽取指定类型的实体、关系、事件等事实信息,并形成结构化数据输出的文本处理技术。信息抽取是从文本数据中抽取特定信息的一种技术。文本数据是由一些具体的单位构成的,例如句子、段落、篇章,文本信息正是由一些小的具体的单位构成的,例如字、词、词组、句子、段落或是这些具体的单位的组合。抽取文本数据中的名词短语、人名、地名等都是文本信息抽取,当然,文本信息抽取技术所抽取的信息可以是各种类型的信息。
傅里叶变换:表示能将满足一定条件的某个函数表示成三角函数(正弦和/或余弦函数)或者它们的积分的线性组合。在不同的研究领域,傅立叶变换具有多种不同的变体形式,如连续傅立叶变换和离散傅立叶变换。
梅尔倒频谱系数(Mel-Frequency Cipstal Coefficients,MFCC):是一组用来建立梅尔倒频谱的关键系数。由音乐信号当中的片段,可以得到一组足以代表此音乐信号的倒频谱,而梅尔倒频谱系数即是从这个倒频谱中推得的倒频谱(也就是频谱的频谱)。与一般的倒频谱不同,梅尔倒频谱最大的特色在于梅尔倒频谱上的频带是均匀分布于梅尔刻度上的,也就是说,相较于一般所看到、线性的倒频谱表示方法,这样的频带会和人类非线性的听觉系统(Audio System)更为接近。例如:在音讯压缩的技术中,常常使用梅尔倒频谱来处理。
残差网络(Residual Network):残差网络可以通过残差密集块(Residual DenseBlock,RDB)来充分利用原始图像的所有分层特征。对于一个很深的网络来说,直接提取原始图像空间中的每个卷积层的输出很难,可以说是不切实际的。使用RDB作为残差密集网络(Residual Dense Network,RDN)的构建模块。RDB包含密集连通层和带有局部残差学习(Local Residual Learning,LRL)的局部特征融合(Local Feature Fusion,LFF)。RDB每个卷积层都可以访问所有的后续层,传递需要保留的信息。将前面的RDB与当前RDB的所有前面层的状态连接,LFF通过自适应地保存信息来提取局部密集特征。此外,LFF通过稳定更大网络的训练来实现极高的增长率。在提取多层局部密集特征后,进一步进行全局特征融合(Global Feature Fusion,GFF)以全局方式自适应地保留分层特征。每层都可以直接访问原始的图像输入,从而产生隐式的深层监督学习。
池化(Pooling):本质上是一种采样,对输入的特征图选取某一种方式进行降维处理和压缩处理,以加快运算速度,采用较多的池化过程为最大池化(Max Pooling)。
解码(Decoder):就是将之前生成的固定向量再转化成输出序列;其中,输入序列可以是文字、语音、图像、视频;输出序列可以是文字、图像。
Softmax函数:Softmax函数是归一化指数函数,能将一个含任意实数的K维向量z“压缩”到另一个K维实向量σ(z)中,使得每一个元素的范围都在(0,1)之间,并且所有元素的和为1,该函数常用于多分类问题中。
目前,常常通过高斯建模的方式来识别语音数据对应的说话人身份,这一方式往往需要经过较为复杂的高斯计算,会存在较大的出错风险,影响语音识别的准确性,因此,如何提高语音识别的准确性,成为了亟待解决的技术问题。
基于此,本申请实施例提供了一种语音识别方法、语音识别装置、电子设备及存储介质,旨在提高语音识别的准确性。
本申请实施例提供的语音识别方法、语音识别装置、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的语音识别方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的语音识别方法,涉及人工智能技术领域。本申请实施例提供的语音识别方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现语音识别方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
图1是本申请实施例提供的语音识别方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S101至步骤S106。
步骤S101,获取目标说话人的目标语音数据;
步骤S102,对目标语音数据进行频谱分析,得到目标梅尔倒谱系数;
步骤S103,对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;
步骤S104,通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;
步骤S105,通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量;
步骤S106,对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,其中,目标人物标签用于表征目标说话人的身份。
本申请实施例所示意的步骤S101至步骤S106,通过获取目标说话人的目标语音数据;对目标语音数据进行频谱分析,得到目标梅尔倒谱系数,能够较为方便地将语音数据转换为频谱特征,并对频谱特征进行分析处理,得到目标梅尔倒谱系数,使得能够通过频谱特征来识别出说话人的身份,提高了识别准确性。通过对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量,能够通过变维处理将目标梅尔倒谱系数对应的隐状态特征映射到特定的向量维度,通过池化处理来改变隐状态特征的时序状态,从而得到符合需求的目标语音向量,将目标语音向量作为识别目标说话人的身份的特征向量。最后对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,从而方便地根据对应的目标人物标签确定目标说话人的身份,提高了语音识别的准确性。
在一些实施例的步骤S101中,可以通过编写网络爬虫,设置好数据源之后进行有目标性地爬取数据,得到目标语音数据,其中,数据源可以是各种类型的网络平台、社交媒体也可以是某些特定的音频数据库等,目标语音数据可以是目标说话人的音乐素材、演讲汇报、聊天对话等。也可以通过其他方式获取目标语音数据,不限于此。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关国家和地区的相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
请参阅图2,在一些实施例中,步骤S102可以包括但不限于包括步骤S201至步骤S202:
步骤S201,对目标语音数据进行声谱计算,得到目标频谱图;
步骤S202,对目标频谱图进行滤波处理,得到目标梅尔倒谱系数。
在一些实施例的步骤S201中,通过短时傅里叶变换对目标语音数据进行声谱计算,得到目标频谱图。具体地,对目标语音数据进行信号分帧加窗处理,得到多帧语音片段,对每一帧的语音片段进行短时傅里叶变换,将语音片段的时域特征转换为频域特征,最后,在时间维度上将每一帧的频域特征进行堆叠处理,得到目标频谱图,其中,每一帧语音片段的帧长为20ms,帧移为10ms,短时傅里叶变换的点数为512。
在一些实施例的步骤S202中,通过64维的梅尔倒谱滤波器组对目标频谱图进行滤波处理,先对目标频谱图进行对数运算,得到目标对数谱,再对目标对数谱进行傅里叶反变换处理,得到目标梅尔倒谱。进一步地,对目标梅尔倒谱进行特征提取,得到目标梅尔倒谱系数,其中,目标梅尔倒谱系数的特征维度为T*64,T为目标语音数据的帧数。
通过上述的步骤S201至步骤S202能够较为方便地将语音数据转换为频谱特征,并对频谱特征进行滤波处理,得到目标梅尔倒谱系数,使得能够通过频谱特征来识别出说话人的身份,从而提高识别准确性。
在一些实施例的步骤S103之前,语音识别方法还包括预先语音识别模型,该语言模型包括卷积网络、残差网络、池化网络以及解码网络。其中,卷积网络包括至少一个卷积层,该卷积层的卷积核尺寸为3,通道数为512,卷积网络主要用于将输入向量进行升维处理,得到512维向量,其中,输入向量可以通过对样本语音数据进行频谱分析得到;残差网络包括至少一个卷积层和至少一个激活层,残差网络主要用于将经过卷积网络输出的向量分别输入至卷积层和激活层进行处理,再对处理之后的向量进行加权计算,输出残差特征向量;池化网络包括第一卷积层、第二卷积层和池化层,用于通过第一卷积层对残差特征向量进行升维处理,并通过池化层调整升维处理之后的向量的时序状态,得到时序无关的特征变量,再通过第二卷积层对特征变量进行升维处理,得到样本语音向量;解码网络用于通过概率函数等对池化网络输出的样本语音向量进行概率计算和解码处理,从而得到与输入向量对应的人物标签,从而通过人物标签来识别目标说话人的身份。
进一步地,在对语音识别模型进行训练时,可以利用Additive Angular Margin(AAM)损失函数来进行训练,AAM损失函数可以表示如公式(1)所示:
Figure BDA0003669636320000081
其中,N为样本语音数据集的目标说话人的人数,θyi,i为样本语音向量的中间变量与第二卷积层的权重Wyi之间的夹角,m和s为固定值,m为0.2,s为30,i表示N个说话人中的第i个,yi表示第i个人对应的第二卷积层的权重Wyi,j表示N个说话人中的第j个,yj表示第j个人对应的第二卷积层的权重Wyj
在一些实施例的步骤S103中,通过卷积网络对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征,其中,卷积网络包含至少一个卷积层,卷积层的卷积核尺寸为3,通道数为512,通过卷积网络能够对目标梅尔倒谱系数进行变维处理,将目标梅尔倒谱系数的特征维度调整为512,从而对不相关的信息进行过滤处理,得到梅尔倒谱隐状态,即第一隐状态特征。
请参阅图3,在一些实施例中,步骤S104可以包括但不限于包括步骤S301至步骤S303:
步骤S301,通过残差网络对第一隐状态特征进行卷积处理,得到第一卷积特征向量;
步骤S302,通过残差网络的激活函数对第一隐状态特征进行激活处理,得到目标激活特征向量;
步骤S303,根据预设的权重参数对第一卷积特征和目标激活特征向量进行求和处理,得到目标语音特征。
在一些实施例的步骤S301中,残差网络一共四层,由四层相同的网络结构构成,第一隐状态特征为第一层的输入,第一层的输出为第二层的输入,依次类推,最后通过第四层输出目标语音特征,每一层网络结构的卷积核分别为3、7、11和15,其中,每一层网络结构包括两个卷积层(卷积层A和卷积层B)和一个激活层。通过残差网络的卷积层A对第一隐状态特征进行卷积处理,捕捉第一隐状态特征的空间特征,得到第一卷积特征向量,其中卷积层A的尺寸为1*1。
在一些实施例的步骤S302中,残差网络的激活层包括有两个激活函数,通过激活函数来对第一隐状态特征进行激活处理从而得到目标激活特征向量,其中,目标激活特征向量可以通过对每一激活函数输出的激活向量进行点乘处理并通过卷积层B对点乘处理得到的向量进行卷积处理得到,其中卷积层A的尺寸为1*1。
在一些实施例的步骤S303中,预设的权重参数可以根据实际业务需求进行设置,不做限制。根据预设的权重参数对第一卷积特征和目标激活特征向量进行求和处理,得到目标语音特征z的具体过程可以表示如公式(2)所示:
z=w1*x+w2*(tanh(x)⊙sigmoid(x)) 公式(2)
其中,*为一维卷积计算,tanh函数和sigmiod函数为激活函数,⊙为点乘处理,w1、w2分别为权重参数,x为输入的第一隐状态特征或前一层的输出。
通过上述步骤S301至步骤S303,能够对目标语音数据对应的目标梅尔倒谱特征进行特征提取,提取到长度可变的梅尔倒谱隐状态,并对梅尔倒谱隐状态进行激活处理,得到目标语音特征,从而丰富目标语音特征的语义信息,提高语音识别的精度。
请参阅图4,在一些实施例中,激活函数包括第一函数和第二函数,步骤S302可以包括但不限于包括步骤S401至步骤S403:
步骤S401,通过第一激活函数对第一隐状态特征进行激活处理,得到第一激活特征向量;
步骤S402,通过第二激活函数对第一隐状态特征进行激活处理,得到第二激活特征向量;
步骤S403,对第一激活特征向量和第二激活特征向量进行点乘处理,得到目标激活特征向量。
在一些实施例的步骤S401中,第一激活函数为tanh函数,通过tanh函数可以将输入的第一隐状态特征的元素值变换到-1和1之间,得到第一激活特征向量。
在一些实施例的步骤S402中,第二激活函数为sigmiod函数,通过sigmoid函数可以将输入的第一隐状态特征的元素值变换到0和1之间,得到第二激活特征向量。
在一些实施例的步骤S403中,对第一激活特征向量和第二激活特征向量进行矩阵点乘处理,得到点乘向量,再对点乘向量进行一维卷积处理,得到目标激活特征向量。
请参阅图5,在一些实施例中,池化网络包括第一卷积层、池化层以及第二卷积层,步骤S105可以包括但不限于包括步骤S501至步骤S503:
步骤S501,通过第一卷积层对目标语音特征进行变维处理,得到第二隐状态特征;
步骤S502,通过池化层对第二隐状态特征进行池化处理,得到中间向量;
步骤S503,通过第二卷积层对中间向量进行变维处理,得到目标语音向量。
在一些实施例的步骤S501中,第一卷积层的卷积核尺寸为1,通道数为1500,通过第一卷积层能够对目标语音特征进行变维处理,将目标语音特征的特征维度调整为1500,从而得到表征梅尔倒谱系数的隐状态,即第二隐状态特征,其中,第二隐状态特征的特征维度为T*1500,T为目标语音数据的帧数。
在一些实施例的步骤S502中,由于第二隐状态特征在时序上的长度是不固定的,因此,需要进一步地对第二隐状态特征进行调节,以获取时序无关的语句级别的向量。具体地,通过池化层分别计算第二隐状态的均值和标准差,从而根据均值和标准差对第二隐状态进行池化处理,获取时序无关的中间向量,其中,中间向量的特征维度为1*3000。
在一些实施例的步骤S503中,第二卷积层的卷积核尺寸为1,通道数为256,通过第二卷积层能够对中间向量进行变维处理,将中间向量的特征维度调整为256,从而得到能够识别说话人身份的特征向量,即目标语音向量,其中,目标语音向量的特征维度为1*256。
上述步骤S501至步骤S503,通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量,能够通过变维处理将目标梅尔倒谱系数对应的隐状态特征映射到特定的向量维度,通过池化处理来改变隐状态特征的时序状态,从而得到符合需求的目标语音向量,将目标语音向量作为识别目标说话人的身份的特征向量,能够将隐状态映射为时序无关的向量,将目标语音向量提升至语句级别,提高了目标语音向量的向量级别,从而提高语音识别的精度。
请参阅图6,在一些实施例,步骤S502包括但不限于包括步骤S601至步骤S603:
步骤S601,通过池化层和预设的时序维度对第二隐状态特征进行均值计算,得到隐状态均值;
步骤S602,通过池化层和时序维度对第二隐状态特征进行标准差计算,得到隐状态标准差;
步骤S603,根据隐状态均值和隐状态标准差对第二隐状态特征进行池化处理,得到中间向量。
在一些实施例的步骤S601中,时序维度可以根据实际业务需求进行设置,例如,时序维度为3000。在时序维度为3000的向量空间里对第二隐状态特征进行特征求和处理,得到第二隐状态特征的特征总和,再将特征总和与第二隐状态的特征个数相除,实现对第二隐状态特征的均值计算,得到隐状态均值。
在一些实施例的步骤S602中,在时序维度为3000的向量空间里计算每一第二隐状态特征的特征值与隐状态均值的差值,并根据一系列的差值计算出第二隐状态特征的标准差,得到隐状态标准差。
在一些实施例的步骤S603中,通过池化层的隐状态均值和隐状态标准差对第二隐状态特征进行特征采样,得到时序无关的中间向量。
通过上述步骤S601至步骤S603,能够将长度可变的第二隐状态特征调整为时序无关的特征变量,并将这一特征变量提升至语句级别,提高了特征变量的向量级别,从而提高语音识别的精度。
请参阅图7,在一些实施例中,步骤S106可以包括但不限于包括步骤S701至步骤S702:
步骤S701,通过预设函数和预设人物标签对目标语音向量进行标签概率计算,得到每一预设人物标签对应的标签概率向量;
步骤S702,选取数值最大的标签概率向量对应的预设人物标签作为目标人物标签。
在一些实施例的步骤S701中,预设函数可以是softmax函数等预测函数,预设人物标签可以从不同的数据源提取到,例如,从网络媒体、社交平台上获取各种人物的基本信息,包括身份信息、个人情况以及相关的音视频数据等等。以softmax函数为例,通过softmax函数可以创建目标语音向量在每一预设人物标签上的概率分布情况,通过概率分布情况反映出目标语音向量属于每一预设人物标签的概率大小,从而,得到每一预设人物标签对应的标签概率向量。
在一些实施例的步骤S702中,标签概率向量的大小可以直观地反映出目标语音向量属于每一预设人物标签的可能性,当标签概率向量的数值越大,目标语音向量与对应的预设人物标签的匹配程度越高,表明该目标语音向量来自于这一预设人物标签对应的人物的可能性越大,因此,选取数值最大的标签概率向量对应的预设人物标签作为目标人物标签,从而通过目标人物标签来表征目标说话人的身份。
上述步骤S701至步骤S702,通过预设函数能够方便地将目标语音向量属于每一预设人物标签的可能性大小进行量化,得到标签概率向量,然后根据标签概率向量的大小选取最合适的预设人物标签作为目标人物标签,从而根据目标人物标签确认目标说话人的身份,提高了语音识别的准确性。
本申请实施例的语音识别方法,其获取目标说话人的目标语音数据;对目标语音数据进行频谱分析,得到目标梅尔倒谱系数,能够较为方便地将语音数据转换为频谱特征,并对频谱特征进行分析处理,得到目标梅尔倒谱系数,使得能够通过频谱特征来识别出说话人的身份,提高了识别准确性。进一步地,对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量,能够通过变维处理将目标梅尔倒谱系数对应的隐状态特征映射到特定的向量维度,通过池化处理来改变隐状态特征的时序状态,从而得到符合需求的目标语音向量,将目标语音向量作为识别目标说话人的身份的特征向量。最后,对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,从而方便地根据对应的目标人物标签确定目标说话人的身份,提高了语音识别的准确性。
请参阅图8,本申请实施例还提供一种语音识别装置,可以实现上述语音识别方法,该装置包括:
数据获取模块801,用于获取目标说话人的目标语音数据;
分析模块802,用于对目标语音数据进行频谱分析,得到目标梅尔倒谱系数;
变维模块803,用于对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;
特征提取模块804,用于通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;
池化模块805,用于通过预设的池化网络对目标语音特征进行池化处理,得到目标语音向量;
解码模块806,用于对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,其中,目标人物标签用于表征目标说话人的身份。
在一些实施例中,分析模块802包括:
计算单元,用于对目标语音数据进行声谱计算,得到目标频谱图;
滤波单元,用于对目标频谱图进行滤波处理,得到目标梅尔倒谱系数。
在一些实施例中,特征提取模块804包括:
卷积单元,用于通过残差网络对第一隐状态特征进行卷积处理,得到第一卷积特征向量;
激活单元,用于通过残差网络的激活函数对第一隐状态特征进行激活处理,得到目标激活特征向量;
求和单元,用于根据预设的权重参数对第一卷积特征和目标激活特征向量进行求和处理,得到目标语音特征。
在一些实施例中,激活函数包括第一函数和第二函数,激活单元包括:
第一激活子单元,用于通过第一激活函数对第一隐状态特征进行激活处理,得到第一激活特征向量;
第二激活子单元,用于通过第二激活函数对第一隐状态特征进行激活处理,得到第二激活特征向量;
点乘子单元,用于对第一激活特征向量和第二激活特征向量进行点乘处理,得到目标激活特征向量。
在一些实施例中,池化网络包括第一卷积层、池化层以及第二卷积层,池化模块805包括:
第一变维单元,用于通过第一卷积层对目标语音特征进行变维处理,得到第二隐状态特征;
池化单元,用于通过池化层对第二隐状态特征进行池化处理,得到中间向量;
第二变维单元,用于通过第二卷积层对中间向量进行变维处理,得到目标语音向量。
在一些实施例中,池化单元包括:
均值计算子单元,用于通过池化层和预设的时序维度对第二隐状态特征进行均值计算,得到隐状态均值;
标准差计算子单元,用于通过池化层和时序维度对第二隐状态特征进行标准差计算,得到隐状态标准差;
池化子单元,用于根据隐状态均值和隐状态标准差对第二隐状态特征进行池化处理,得到中间向量。
在一些实施例中,解码模块806包括:
概率计算单元,用于通过预设函数和预设人物标签对目标语音向量进行标签概率计算,得到每一预设人物标签对应的标签概率向量;
选择单元,用于选取数值最大的标签概率向量对应的预设人物标签作为目标人物标签。
该语音识别装置的具体实施方式与上述语音识别方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括:存储器、处理器、存储在存储器上并可在处理器上运行的程序以及用于实现处理器和存储器之间的连接通信的数据总线,程序被处理器执行时实现上述语音识别方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器901,可以采用通用的CPU(Central ProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器902,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本申请实施例的语音识别方法;
输入/输出接口903,用于实现信息输入及输出;
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,存储介质为计算机可读存储介质,用于计算机可读存储,存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述语音识别方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的语音识别方法、语音识别装置、电子设备及存储介质,其通过获取待识别的目标语音数据;对目标语音数据进行频谱分析,得到目标梅尔倒谱系数,能够较为方便地将语音数据转换为频谱特征,并对频谱特征进行分析处理,得到目标梅尔倒谱系数,使得能够通过频谱特征来识别出说话人的身份,提高了识别准确性。进一步地,对目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;通过预设的残差网络对第一隐状态特征进行特征提取,得到目标语音特征;通过预设的池化网络对目标语音特征进行池化处理,得到时序无关的目标语音向量,能够通过变维处理将目标梅尔倒谱系数对应的隐状态特征映射到特定的向量维度,通过池化处理来改变隐状态特征的时序状态,从而得到符合需求的目标语音向量,将目标语音向量作为识别目标说话人的身份的特征向量。最后,对目标语音向量进行解码处理,得到目标语音数据对应的目标人物标签,从而方便地根据对应的目标人物标签确定目标说话人的身份,提高了语音识别的准确性。另外,本申请实施例在语音识别模型的训练过程中引入了AAM损失函数来对模型参数进行训练,使得相较于传统技术的模型,不需要对输入数据进行静音切分等预处理,且整个模型训练过程为端到端的模型训练,能够较好地简化模型的训练过程,节约模型的训练时间。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-7中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种语音识别方法,其特征在于,所述方法包括:
获取目标说话人的目标语音数据;
对所述目标语音数据进行频谱分析,得到目标梅尔倒谱系数;
对所述目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;
通过预设的残差网络对所述第一隐状态特征进行特征提取,得到目标语音特征;
通过预设的池化网络对所述目标语音特征进行池化处理,得到目标语音向量;
对所述目标语音向量进行解码处理,得到所述目标语音数据对应的目标人物标签,其中,所述目标人物标签用于表征所述目标说话人的身份。
2.根据权利要求1所述的语音识别方法,其特征在于,所述通过预设的残差网络对所述第一隐状态特征进行特征提取,得到目标语音特征的步骤,包括:
通过所述残差网络对所述第一隐状态特征进行卷积处理,得到第一卷积特征向量;
通过所述残差网络的激活函数对所述第一隐状态特征进行激活处理,得到目标激活特征向量;
根据预设的权重参数对所述第一卷积特征和所述目标激活特征向量进行求和处理,得到所述目标语音特征。
3.根据权利要求2所述的语音识别方法,其特征在于,所述激活函数包括第一函数和第二函数,所述通过所述残差网络的激活函数对所述第一隐状态特征进行激活处理,得到目标激活特征向量的步骤,包括:
通过所述第一激活函数对所述第一隐状态特征进行激活处理,得到第一激活特征向量;
通过所述第二激活函数对所述第一隐状态特征进行激活处理,得到第二激活特征向量;
对所述第一激活特征向量和所述第二激活特征向量进行点乘处理,得到所述目标激活特征向量。
4.根据权利要求1所述的语音识别方法,其特征在于,所述池化网络包括第一卷积层、池化层以及第二卷积层,所述通过预设的池化网络对所述目标语音特征进行池化处理,得到目标语音向量的步骤,包括:
通过所述第一卷积层对所述目标语音特征进行变维处理,得到第二隐状态特征;
通过所述池化层对所述第二隐状态特征进行池化处理,得到中间向量;
通过所述第二卷积层对所述中间向量进行变维处理,得到所述目标语音向量。
5.根据权利要求4所述的语音识别方法,其特征在于,所述通过所述池化层对所述第二隐状态特征进行池化处理,得到中间向量的步骤,包括:
通过所述池化层和预设时序维度对所述第二隐状态特征进行均值计算,得到隐状态均值;
通过所述池化层和预设时序维度对所述第二隐状态特征进行标准差计算,得到隐状态标准差;
根据所述隐状态均值和隐状态标准差对所述第二隐状态特征进行池化处理,得到所述中间向量。
6.根据权利要求1所述的语音识别方法,其特征在于,所述对所述目标语音向量进行解码处理,得到所述目标语音数据对应的目标人物标签的步骤,包括:
通过预设函数和预设人物标签对所述目标语音向量进行标签概率计算,得到每一预设人物标签对应的标签概率向量;
选取数值最大的标签概率向量对应的预设人物标签作为所述目标人物标签。
7.根据权利要求1至6任一项所述的语音识别方法,其特征在于,所述对所述目标语音数据进行频谱分析,得到目标梅尔倒谱系数的步骤,包括:
对所述目标语音数据进行声谱计算,得到目标频谱图;
对所述目标频谱图进行滤波处理,得到目标梅尔倒谱系数。
8.一种语音识别装置,其特征在于,所述装置包括:
数据获取模块,用于获取目标说话人的目标语音数据;
分析模块,用于对所述目标语音数据进行频谱分析,得到目标梅尔倒谱系数;
变维模块,用于对所述目标梅尔倒谱系数进行变维处理,得到第一隐状态特征;
特征提取模块,用于通过预设的残差网络对所述第一隐状态特征进行特征提取,得到目标语音特征;
池化模块,用于通过预设的池化网络对所述目标语音特征进行池化处理,得到目标语音向量;
解码模块,用于对所述目标语音向量进行解码处理,得到所述目标语音数据对应的目标人物标签,其中,所述目标人物标签用于表征所述目标说话人的身份。
9.一种电子设备,其特征在于,所述电子设备包括存储器、处理器、存储在所述存储器上并可在所述处理器上运行的程序以及用于实现所述处理器和所述存储器之间的连接通信的数据总线,所述程序被所述处理器执行时实现如权利要求1至7任一项所述的语音识别方法的步骤。
10.一种存储介质,所述存储介质为计算机可读存储介质,用于计算机可读存储,其特征在于,所述存储介质存储有一个或者多个程序,所述一个或者多个程序可被一个或者多个处理器执行,以实现权利要求1至7中任一项所述的语音识别方法的步骤。
CN202210600295.0A 2022-05-30 2022-05-30 语音识别方法、语音识别装置、电子设备及存储介质 Pending CN114974219A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210600295.0A CN114974219A (zh) 2022-05-30 2022-05-30 语音识别方法、语音识别装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210600295.0A CN114974219A (zh) 2022-05-30 2022-05-30 语音识别方法、语音识别装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN114974219A true CN114974219A (zh) 2022-08-30

Family

ID=82958564

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210600295.0A Pending CN114974219A (zh) 2022-05-30 2022-05-30 语音识别方法、语音识别装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN114974219A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115602165A (zh) * 2022-09-07 2023-01-13 杭州优航信息技术有限公司(Cn) 基于金融系统的数字员工智能系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115602165A (zh) * 2022-09-07 2023-01-13 杭州优航信息技术有限公司(Cn) 基于金融系统的数字员工智能系统

Similar Documents

Publication Publication Date Title
CN109740158B (zh) 一种文本语义解析方法及装置
CN110277088B (zh) 智能语音识别方法、装置及计算机可读存储介质
CN115641834A (zh) 一种语音合成方法、装置、电子设备及存储介质
CN116543768A (zh) 模型的训练方法、语音识别方法和装置、设备及存储介质
CN116343747A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN117271736A (zh) 一种问答对的生成方法和系统、电子设备及存储介质
CN114974219A (zh) 语音识别方法、语音识别装置、电子设备及存储介质
CN116644765A (zh) 语音翻译方法、语音翻译装置、电子设备及存储介质
CN116580704A (zh) 语音识别模型的训练方法、语音识别方法、设备及介质
CN116432705A (zh) 文本生成模型构建、文本生成方法和装置、设备及介质
CN116386594A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN116312463A (zh) 语音合成方法、语音合成装置、电子设备及存储介质
CN115292495A (zh) 情绪分析方法、装置、电子设备及存储介质
CN115273805A (zh) 基于韵律的语音合成方法和装置、设备、介质
CN114913871A (zh) 目标对象分类方法、系统、电子设备及存储介质
CN114936274A (zh) 模型训练方法、对话生成方法和装置、设备及存储介质
CN115017886A (zh) 文本匹配方法、文本匹配装置、电子设备及存储介质
CN114611529A (zh) 意图识别方法和装置、电子设备及存储介质
CN116645961A (zh) 语音识别方法、语音识别装置、电子设备及存储介质
CN115238122A (zh) 演唱对象识别方法和装置、电子设备及存储介质
CN114786059B (zh) 视频生成方法、视频生成装置、电子设备、存储介质
CN116541551A (zh) 音乐分类方法、音乐分类装置、电子设备及存储介质
CN116543753A (zh) 语音识别方法、语音识别装置、电子设备及存储介质
CN115223550A (zh) 基于音频的情绪识别模型的训练方法和装置、设备、介质
CN116564274A (zh) 语音合成方法、语音合成装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination