CN114913846A - 识别方法、装置和电子设备 - Google Patents

识别方法、装置和电子设备 Download PDF

Info

Publication number
CN114913846A
CN114913846A CN202210362734.9A CN202210362734A CN114913846A CN 114913846 A CN114913846 A CN 114913846A CN 202210362734 A CN202210362734 A CN 202210362734A CN 114913846 A CN114913846 A CN 114913846A
Authority
CN
China
Prior art keywords
network
information
voice recognition
recognition network
feature information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210362734.9A
Other languages
English (en)
Inventor
李晓阳
秦浩桐
刘祥龙
张晰
马泽君
丁一芙
马旭栋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Beijing Youzhuju Network Technology Co Ltd
Original Assignee
Beihang University
Beijing Youzhuju Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University, Beijing Youzhuju Network Technology Co Ltd filed Critical Beihang University
Priority to CN202210362734.9A priority Critical patent/CN114913846A/zh
Publication of CN114913846A publication Critical patent/CN114913846A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本公开实施例公开了识别方法、装置和电子设备。该方法的一具体实施方式包括:将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。由此,提供了一种新的识别方式。

Description

识别方法、装置和电子设备
技术领域
本公开涉及计算机技术领域,尤其涉及一种识别方法、装置和电子设备。
背景技术
随着计算机的发展,计算机可以辅助人类实现越来越多的功能。其中,语音识别技术也在日益发展和成熟。
语音识别是一门涉及面很广的交叉学科,它与声学、语音学、语言学、信息理论、模式识别理论以及神经生物学等学科都有非常密切的关系。语音识别技术正逐步成为计算机信息处理技术中的关键技术。
发明内容
提供该公开内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该公开内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开实施例提供了一种识别方法,该方法包括:将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。
第二方面,本公开实施例提供了一种识别装置,包括:第一生成单元,用于将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;第二生成单元,用于根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;调整单元,用于根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。
第三方面,本公开实施例提供了一种电子设备,包括:至少一个处理器;存储装置,用于存储至少一个计算机程序,当所述至少一个计算机程序被所述至少一个处理器执行,使得所述至少一个处理器实现如第一方面所述的识别方法。
第四方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面所述的识别方法的步骤。
本公开实施例提供的识别方法、装置和电子设备,可以提高经量化得到的第一语音识别网络的准确度。具体来说,利用第二语音识别网络处理语音数据,得到强化特征信息;以第一语音识别网络处理同一段语音数据,得到第一特征信息;并且,强化特征信息可以指示第二语音识别网络处理语音数据得到的特征信息,以及将第一特征信息与强化特征信息进行比对计算,由此得到网络损失值,利用网络损失值更新第一语音识别网络,可以使得第一语音识别网络的处理结果向靠近第二语音识别网络的处理结果的方向改进。由此,可以实现第一语音识别网络相对于第二语音识别,计算量和存储量降低的同时,准确率可以并不明显降低,即实现训练后的第一语音识别网络的准确度相对于训练前提高。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开的识别方法的一个实施例的流程图;
图2是根据本公开的一个示例性实现方式的流程图;
图3是根据本公开的语音识别网络之间的关系示意图;
图4A、图4B和图4C是根据本公开示例性实现方式的示意图;
图5是根据本公开的识别装置的一个实施例的结构示意图;
图6是本公开的一个实施例的识别方法可以应用于其中的示例性系统架构;
图7是根据本公开实施例提供的电子设备的基本结构的示意图。
具体实施方式
可以理解的是,在使用本公开各实施例公开的技术方案之前,均应当依据相关法律法规通过恰当的方式对本公开所涉及个人信息的类型、使用范围、使用场景等告知用户并获得用户的授权。
例如,在响应于接收到用户的主动请求时,向用户发送提示信息,以明确地提示用户,其请求执行的操作将需要获取和使用到用户的个人信息。从而,使得用户可以根据提示信息来自主地选择是否向执行本公开技术方案的操作的电子设备、应用程序、服务器或存储介质等软件或硬件提供个人信息。
作为一种可选的但非限定性的实现方式,响应于接收到用户的主动请求,向用户发送提示信息的方式例如可以是弹窗的方式,弹窗中可以以文字的方式呈现提示信息。此外,弹窗中还可以承载供用户选择“同意”或者“不同意”向电子设备提供个人信息的选择控件。
可以理解的是,上述通知和获取用户授权过程仅是示意性的,不对本公开的实现方式构成限定,其它满足相关法律法规的方式也可应用于本公开的实现方式中。
可以理解的是,本技术方案所涉及的数据(包括但不限于数据本身、数据的获取或使用)应当遵循相应法律法规及相关规定的要求。
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
请参考图1,其示出了根据本公开的识别方法的一个实施例的流程。如图1所示该识别方法,包括以下步骤:
步骤101,将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息。
在本实施例中,上述语音数据可以理解为训练样本。
在这里,所述第一语音识别网络通过对第二语音识别网络进行量化得到。第一语音识别网络和第二语音识别网络,均是用于语音识别的网络。在这里,第一语音识别网络,可以是未经训练或者未训练完成的语音识别网络。
模型量化可以理解为将浮点存储(运算)转换为整型存储(运算)的一种模型压缩技术。作为示例,原来表示一个权重需要使32位浮点数表示,量化后只需要使用8位整型来表示,由此获得接近4倍的网络加速。对模型进行量化,可以包括针对权重的量化,也可以包括针对激活值的量化。
在本实施例中,第一语音识别网络和第二语音识别网络的网络结构可以大体一致。大体一致可以理解为网络层设置相同,参数可能不同。第一语音识别网络和第二语音识别网络的具体结构,在此不做限定,作为示例,第一语音识别网络的网络结构可以包括但是不限于以下至少一项:长短期记忆模型(Long short-term memory,LSTM)、门控循环单元模型(Gated Recurrent Unit,GRU)、前馈序列记忆神经网络(Feedforward SequentialMemory Networks,FSMN)。
在本实施例中,第一语音识别网络对语音数据进行特征提取,可以得到第一特征信息。
步骤102,根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值。
在本实施例中,强化特征信息可以基于第二语音识别网络处理所述语音数据得到。
作为示例,强化特征信息的获得方式可以参考图2所示流程。
在这里,第一语音识别网络的网络损失值,可以用于指示第一语音识别网络相对于第二语音识别网络的准确度差异程度。
步骤103,根据网络损失值调整第一语音识别网络的参数。
在本实施例中,第一语音识别网络的网络损失值(loss),可以用于对第一语音识别网络的网络参数进行调整。作为示例,可以采用误差反向传播(back propagation,BP)算法在训练过程中调整第一语音识别网络中参数的大小,使得第一语音识别网络的重建误差损失越来越小。具体地,通过反向传播误差损失信息来更新第一语音识别网络的参数,从而使误差损失收敛。反向传播算法是以误差损失为主导的反向传播运动,以得到最优的神经网络模型的参数,例如权重矩阵。
在这里,符合预设训练完成条件的第一语音识别网络用于识别语音。训练完成条件用于指示第一语音识别网络的停止条件。作为示例,训练完成条件可以包括但是不限于以下至少一项:网络损失值小于预设损失值阈值,迭代次数不小于预设次数阈值。
在这里,可以将步骤101、步骤102和步骤103作为一个循环片段多次执行,即多次更新第一语音识别网络的参数。
需要说明的是,本实施例提供的识别方式,可以提高经量化得到的第一语音识别网络的准确度。具体来说,利用第二语音识别网络处理语音数据,得到强化特征信息;以第一语音识别网络处理同一段语音数据,得到第一特征信息;并且,强化特征信息可以指示第二语音识别网络处理语音数据得到的特征信息,以及将第一特征信息与强化特征信息进行比对,由此得到网络损失值,利用网络损失值更新第一语音识别网络,可以使得第一语音识别网络的处理结果向靠近第二语音识别网络的处理结果的方向改进。由此,可以实现第一语音识别网络相对于第二语音识别,计算量和存储量降低的同时,准确率可以并不明显降低,即实现训练后的第一语音识别网络的准确度相对于训练前提高。
在一些实施例中,所述强化特征信息可以通过第一步骤生成。
请参考图2,图2是第一步骤的示例性流程,第一步骤可以包括步骤201和步骤202。
步骤201,将语音数据输入至第二语音识别网络,得到第二语音识别网络生成的第二特征信息。
在这里,第二语音识别网络的精度高于第一语音识别网络的精度。
步骤202,基于第二特征信息的高频分量,生成第二特征信息的强化特征信息。
在这里,第二特征信息可以指示上述语音数据,语音数据包括高频分量和低频分量。高频分量和低频分量的判断依据,可以根据实际应用场景设置,可选的,可以以预设大于等于预设频率阈值的部分为高频分量,以小于预设频率阈值的部分为低频分量。
需要说明的是,利用第二语音识别网络处理语音数据,得到第二特征信息;以第一语音识别网络处理同一段语音数据,得到第一特征信息;并且,将第二特征信息进行强化,突出第二特征信息的特征,以及将第一特征信息与强化特征信息进行比对,由此得到网络损失值,利用网络损失值更新第一语音识别网络,可以使得第一语音识别网络的处理结果向靠近第二语音识别网络的处理结果的方向改进。由此,可以实现第一语音识别网络相对于第二语音识别,计算量和存储量降低的同时,准确率并不降低。
在一些实施例中,所述步骤202,包括:对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息;从所述变换后信息中确定预定义的初始高频分量;对初始高频分量进行与所述变换对应的反变换,得到所述高频分量。
在这里,上述变换的作用从第二特征信息中分离初始高频信息和初始低频信息。
作为示例,变换后信息可以包括初始高频分量部分和初始低频分量部分,然后可以将初始低频分量部分置零,得到与变换后信息尺度相同的初始高频分量。再后,可以将初始高频分量反变换,得到与第二特征信息尺度相同的高频分量。
在一些实施例中,所述对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,包括:对所述第二特征信息进行小波变换,得到所述变换后信息。
作为示例,可以采用平移量为1的方式,对第二特征信息进行小波变换。
需要说明的是,采用小波变换,可以利用小波变换与语音特性强相关的特点。进一步的,如果小波变换的平移量为1,可以与第一语音识别网络是经过量化的这一特点贴合,可以实现经小波变换得到的变换后信息适于应用于第一语音识别网络,提高第一语音识别网络的训练速度和准确率。
在一些实施例中,所述步骤202,包括:根据所述高频分量和所述第二特征信息,生成所述强化特征信息。
在这里,高频分量和第二特征信息的具体方式,可以根据实际情况设置。
在这里,强化特征信息结合高频分量和第二特征信息,可以在保留低频分量的同时,强化高频分量,由此,可以强化第二特征信息的特征,得到第二特征信息的强化特征信息。
在一些实施例中,第二语音识别网络包括预设数目个第二特征提取层;以及所述根据所述高频分量和所述第二特征信息,生成所述强化特征信息,包括:对各个第二特征提取层输出的第二特征信息进行归一化,得到与第二特征提取层对应的归一化第二特征信息;对各个第二特征信息的高频分量进行归一化,得到与第二特征提取层对应的归一化高频分量;根据对应于同一特征提取层的归一化高频分量与归一化第二特征信息,确定与第二特征提取层对应的强化特征信息。
作为示例,可以将对应于同一特征提取层的归一化高频分量与归一化第二特征信息的加和,确定为与第二特征提取层对应的强化特征信息。
在这里,高频分量和第二特征信息的信息密度可能具有差异,信息密度差异较大的两个信息结合,可能导致信息密度较低的信息被压制而在结合后的信息中难以发挥作用。将高频分量和第二特征信息分别归一化,可以避免第二特征信息的信息密度明显大于高频分量而导致的高频分量信息被压制。
在一些实施例中,第一语音识别网络包括预设数目个第一特征提取层,第二语音识别网络包括预设数目个第二特征提取层,第一特征提取层和第二特征提取层一一对应;第一特征提取层所输出的第一特征信息,与对应的第二特征提取层输出的第二特征信息之间具有对应关系。
作为示例,请参考图3,图3示出了第一语音识别网络和第二语音识别网络的示例性示意图。
如图3所示,第一语音识别网络包括网络层3011、网络层3012、网络层3013和网络层3014,第一语音识别网络中的省略号可以表示隐去了部分网络层。第二语音识别网络包括网络层3021、网络层3022、网络层3023和网络层3024,第二语音识别网络中的省略号可以表示隐去了部分网络层。图3中的网络层之间的虚线,指示网络层之间的对应关系。作为示例,网络层3011和网络层3021对应,网络层3012和网络层3022对应,网络层3013和网络层3023对应,网络层3014和网络层3024对应。
如图3所示,语音数据导入第一语音识别网络,网络层3021、网络层3022、网络层3023和网络层3024均可以输出第一特征信息;语音数据导入第二语音识别网络,网络层3021、网络层3022、网络层3023和网络层3024可以均可以输出第二特征信息。
在一些实施例中,所述步骤102,可以包括:根据第一特征提取层的第一特征信息,以及该第一特征提取层对应的第二特征提取层所对应的强化特征信息,确定该第一特征提取层的层损失值;根据第一语音识别网络中的第一特征提取层的层损失值,确定第一语音识别网络的网络损失值。
作为示例,请参考图3,网络层3011输出的第一特征信息,可以与网络层3021输出的第二特征信息进行比对,网络层3011的层损失值;网络层3012输出的第一特征信息,可以与网络层3022输出的第二特征信息进行比对,网络层3012的层损失值;网络层3013输出的第一特征信息,可以与网络层3023输出的第二特征信息进行比对,网络层3013的层损失值;网络层3014输出的第一特征信息,可以与网络层3024输出的第二特征信息进行比对,网络层3014的层损失值。然后,根据第一语音识别网络的各个层损失值,确定第一语音识别网络的网络损失值。
需要说明的是,根据各个层损失值确定网络损失值,可以参考各个层的输出,调整第一语音识别网络的网络参数,使得调整后的各个层的参数更为接近未量化的模型,恢复量化后的模型的准确率。
可选的,比对两个特征信息确定层损失值的具体方式,可以根据实际应用场景确定,在此不做限定。
在一些实施例中,所述步骤102,可以包括:获取至少两种子网络信息,其中,子网络信息指示子网络所包括的第一特征提取层;对于所述至少两种子网络信息指示的子网络,确定该子网络所包括的第一特征提取层的层损失值,以及根据该子网络所包括的第一特征提取层的层损失值确定该子网络的子网络损失值;根据所述至少两种子网络的子网络损失值,确定第一语音识别网络的网络损失值。
可选的,至少两个子网络信息指示的子网络,可以包括第一子网络和第二子网络。第一子网络是四层,例如包括第二层、第四层、第六层和第八层。第二子网络是两层,例如可以包括第四层和第八层。
可选的,子网络的层数还可以与第一语音识别网络的层数相同。作为示例,至少两个子网络信息指示的子网络,可以包括第一子网络、第二子网络和第三子网络。第一子网络是四层,例如包括第二层、第四层、第六层和第八层。第二子网络是两层,例如可以包括第四层和第八层。第三子网络是八层,即第一语音识别网络的所有层。
作为示例,请参考图4A、图4B和图4C,图4A示出了第一语音识别网络,图4B示出了第一子网络,图4C示出了第二子网络。第一子网络可以例如包括第一语音识别网络的第二层、第四层、第六层和第八层;将语音数据(例如图4B中的X)输入第一子网络,第一子网络输出的结果(例如图4B中的Y2)可以作为识别结果;可以计算第二层的层损失值,计算第四层的层损失值,计算第六层的层损失值,计算第八层的层损失值,并根据这四个层的层损失值,生成第一子网络的子网络损失值。第二子网络可以例如包括第一语音识别网络的第四层和第八层;将语音数据(例如图4C中的X)输入第二子网络,第二子网络输出的结果(例如图4C中的Y3)可以作为识别结果;可以计算第四层的层损失值,并且计算第八层的层损失值,并根据这两个层的层损失值,生成第二子网络的子网络损失值。第三子网络可以包括第一语音识别网络(如图4A所示)的八个层,第三子网络的输出结果(如图4A所示Y1)可以作为第三子网络的识别结果,可以计算这八个层各自的层损失值,可以计算第三子网络的子网络损失值。再后,可以根据第一子网络的子网络损失值、第二子网络的子网络损失值和第三子网络的子网络损失值,确定第一语音识别网络的网络损失值。
需要说明的是,通过计算各个子网络损失值,然后根据子网络损失值确定网络损失值,在根据网络损失值调整第一语音识别网络的参数,可以实现参数调整方向不仅提高第一语音识别网络的准确率,而且提高第一语音识别网络的各个子网络的准确率。由此,在部署第一语音识别网络的时候,不仅可以启用第一语音识别网络的全部层进行识别,可以采用第一语音识别网络的指定子网络进行识别,并且指定子网的准确率较高。
在一些实施例中,所述方法还可以包括:将符合预设训练完成条件的第一语音识别网络发送至目标电子设备,其中,所述目标电子设备执行第二步骤;所述第二步骤包括:从所述至少两种子网络信息中选取目标子网络信息;根据目标子网络信息启用第一语音识别网络中的第一特征提取层,作为目标子网络;利用目标子网络进行语音识别。
在这里,目标电子设备可以是任意电子设备,即上述第一语音识别网络可以部署在任意电子设备上。上述目标电子设备运行第一语音识别网络的时候,可以根据实际应用场景(例如包括目标电子设备的计算资源和任务对于准确率的需求),选用第一语音识别网络的预设子网络进行启用。例如,目标电子设备可以选择第一子网络(包括第一语音识别网络的四个层)进行启用,第一子网络记为目标子网络,利用第一子网络进行语音识别。
可以理解,一般情况下,子网络的层数越多,计算量越大,准确率也越高;本申请提供的可选择子网络之间的准确率可能稍有差别,但是均保持在较高的准确率。
需要说明的是,通过提供可选择的子网络,并且这些子网络的参数经过训练而可以保证一定程度的准确度,可以实现设备在运行时可以自主选择子网络,由此平衡准确率和计算速度。即,在不改变模型大小的前提下,让部署第一语音识别网络的目标电子设备,根据不同场景,灵活选择大而准确或者小而较为准确的子网络,完成任务。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种识别装置的一个实施例,该装置实施例与图1所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的识别装置包括:第一生成单元501、第二生成单元502和调整单元503。其中,第一生成单元,用于将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;第二生成单元,用于根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;调整单元,用于根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。
在本实施例中,识别装置的第一生成单元501、第二生成单元502和调整单元503的具体处理及其所带来的技术效果可分别参考图1对应实施例中步骤101、步骤102和步骤103的相关说明,在此不再赘述。
在一些实施例中,所述强化特征信息通过第一步骤生成,第一步骤包括:将所述语音数据输入至第二语音识别网络,得到第二语音识别网络生成的第二特征信息;基于第二特征信息的高频分量,生成第二特征信息的强化特征信息。
在一些实施例中,所述基于第二特征信息的高频分量,生成第二特征信息的强化特征信息,包括:对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,其中,所述变换用于分离第二特征信息中初始高频分量和初始低频分量;从所述变换后信息中确定预定义的初始高频分量;对初始高频分量进行与所述变换对应的反变换,得到所述高频分量。
在一些实施例中,所述对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,包括:对所述第二特征信息进行小波变换,得到所述变换后信息。
在一些实施例中,所述基于第二特征信息的高频分量,生成第二特征信息的强化特征信息,包括:根据所述高频分量和所述第二特征信息,生成所述强化特征信息。
在一些实施例中,第二语音识别网络包括预设数目个第二特征提取层;以及所述根据所述高频分量和所述第二特征信息,生成所述强化特征信息,包括:对各个第二特征提取层输出的第二特征信息进行归一化,得到与第二特征提取层对应的归一化第二特征信息;对各个第二特征信息的高频分量进行归一化,得到与第二特征提取层对应的归一化高频分量;根据对应于同一特征提取层的归一化高频分量与归一化第二特征信息,确定与第二特征提取层对应的强化特征信息。
在一些实施例中,第一语音识别网络包括预设数目个第一特征提取层,第二语音识别网络包括预设数目个第二特征提取层,第一特征提取层和第二特征提取层一一对应;第一特征提取层所输出的第一特征信息,与对应的第二特征提取层输出的第二特征信息之间具有对应关系。
在一些实施例中,所述根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,包括:根据第一特征提取层的第一特征信息,以及该第一特征提取层对应的第二特征提取层所对应的强化特征信息,确定该第一特征提取层的层损失值;根据第一语音识别网络中的第一特征提取层的层损失值,确定第一语音识别网络的网络损失值。
在一些实施例中,所述根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,包括:获取至少两种子网络信息,其中,子网络信息指示子网络所包括的第一特征提取层;对于所述至少两种子网络信息指示的子网络,确定该子网络所包括的第一特征提取层的层损失值,以及根据该子网络所包括的第一特征提取层的层损失值确定该子网络的子网络损失值;根据所述至少两种子网络的子网络损失值,确定第一语音识别网络的网络损失值。
在一些实施例中,所述装置还用于:将符合预设训练完成条件的第一语音识别网络发送至目标电子设备,其中,所述目标电子设备执行第二步骤;所述第二步骤包括:从所述至少两种子网络信息中选取目标子网络信息;根据目标子网络信息启用第一语音识别网络中的第一特征提取层,作为目标子网络;利用目标子网络进行语音识别。
请参考图6,图6示出了本公开的一个实施例的识别方法可以应用于其中的示例性系统架构。
如图6所示,系统架构可以包括终端设备601、602、603,网络604,服务器605。网络604用以在终端设备601、602、603和服务器605之间提供通信链路的介质。网络604可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备601、602、603可以通过网络604与服务器605交互,以接收或发送消息等。终端设备601、602、603上可以安装有各种客户端应用,例如网页浏览器应用、搜索类应用、新闻资讯类应用。终端设备601、602、603中的客户端应用可以接收用户的指令,并根据用户的指令完成相应的功能,例如根据用户的指令在信息中添加相应信息。
终端设备601、602、603可以是硬件,也可以是软件。当终端设备601、602、603为硬件时,可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备601、602、603为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器605可以是提供各种服务的服务器,例如接收终端设备601、602、603发送的信息获取请求,根据信息获取请求通过各种方式获取信息获取请求对应的展示信息。并展示信息的相关数据发送给终端设备601、602、603。
需要说明的是,本公开实施例所提供的识别方法可以由终端设备执行,相应地,识别装置可以设置在终端设备601、602、603中。此外,本公开实施例所提供的识别方法还可以由服务器605执行,相应地,识别装置可以设置于服务器605中。
应该理解,图6中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
下面参考图7,其示出了适于用来实现本公开实施例的电子设备(例如图6中的终端设备或服务器)的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图7示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图7所示,电子设备可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。
在一些实施例中,所述强化特征信息通过第一步骤生成,第一步骤包括:将所述语音数据输入至第二语音识别网络,得到第二语音识别网络生成的第二特征信息;基于第二特征信息的高频分量,生成第二特征信息的强化特征信息。
在一些实施例中,所述基于第二特征信息的高频分量,生成第二特征信息的强化特征信息,包括:对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,其中,所述变换用于分离第二特征信息中初始高频分量和初始低频分量;从所述变换后信息中确定预定义的初始高频分量;对初始高频分量进行与所述变换对应的反变换,得到所述高频分量。
在一些实施例中,所述对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,包括:对所述第二特征信息进行小波变换,得到所述变换后信息。
在一些实施例中,所述基于第二特征信息的高频分量,生成第二特征信息的强化特征信息,包括:根据所述高频分量和所述第二特征信息,生成所述强化特征信息。
在一些实施例中,第二语音识别网络包括预设数目个第二特征提取层;以及所述根据所述高频分量和所述第二特征信息,生成所述强化特征信息,包括:对各个第二特征提取层输出的第二特征信息进行归一化,得到与第二特征提取层对应的归一化第二特征信息;对各个第二特征信息的高频分量进行归一化,得到与第二特征提取层对应的归一化高频分量;根据对应于同一特征提取层的归一化高频分量与归一化第二特征信息,确定与第二特征提取层对应的强化特征信息。
在一些实施例中,第一语音识别网络包括预设数目个第一特征提取层,第二语音识别网络包括预设数目个第二特征提取层,第一特征提取层和第二特征提取层一一对应;第一特征提取层所输出的第一特征信息,与对应的第二特征提取层输出的第二特征信息之间具有对应关系。
在一些实施例中,所述根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,包括:根据第一特征提取层的第一特征信息,以及该第一特征提取层对应的第二特征提取层所对应的强化特征信息,确定该第一特征提取层的层损失值;根据第一语音识别网络中的第一特征提取层的层损失值,确定第一语音识别网络的网络损失值。
在一些实施例中,所述根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,包括:获取至少两种子网络信息,其中,子网络信息指示子网络所包括的第一特征提取层;对于所述至少两种子网络信息指示的子网络,确定该子网络所包括的第一特征提取层的层损失值,以及根据该子网络所包括的第一特征提取层的层损失值确定该子网络的子网络损失值;根据所述至少两种子网络的子网络损失值,确定第一语音识别网络的网络损失值。
在一些实施例中,还可以使得该电子设备:将符合预设训练完成条件的第一语音识别网络发送至目标电子设备,其中,所述目标电子设备执行第二步骤;所述第二步骤包括:从所述至少两种子网络信息中选取目标子网络信息;根据目标子网络信息启用第一语音识别网络中的第一特征提取层,作为目标子网络;利用所述目标子网络进行语音识别。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,调整单元还可以被描述为“调整第一语音识别网络参数的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (13)

1.一种识别方法,其特征在于,包括:
将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;
根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;
根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。
2.根据权利要求1所述的方法,其特征在于,所述强化特征信息通过第一步骤生成,其中,所述第一步骤包括:将所述语音数据输入至第二语音识别网络,得到第二语音识别网络生成的第二特征信息;基于第二特征信息的高频分量,生成第二特征信息的强化特征信息。
3.根据权利要求2所述的方法,其特征在于,所述基于第二特征信息的高频分量,生成第二特征信息的强化特征信息,包括:
对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,其中,所述变换用于分离第二特征信息中初始高频分量和初始低频分量;
从所述变换后信息中确定预定义的初始高频分量;
对初始高频分量进行与所述变换对应的反变换,得到所述高频分量。
4.根据权利要求3所述的方法,其特征在于,所述对所述第二特征信息进行变换,得到所述第二特征信息对应的变换后信息,包括:
对所述第二特征信息进行小波变换,得到所述变换后信息。
5.根据权利要求2所述的方法,其特征在于,所述基于第二特征信息的高频分量,生成第二特征信息的强化特征信息,包括:
根据所述高频分量和所述第二特征信息,生成所述强化特征信息。
6.根据权利要求5所述的方法,其特征在于,所述第二语音识别网络包括预设数目个第二特征提取层;以及
所述根据所述高频分量和所述第二特征信息,生成所述强化特征信息,包括:
对各个第二特征提取层输出的第二特征信息进行归一化,得到与第二特征提取层对应的归一化第二特征信息;
对各个第二特征信息的高频分量进行归一化,得到与第二特征提取层对应的归一化高频分量;
根据对应于同一特征提取层的归一化高频分量与归一化第二特征信息,确定与第二特征提取层对应的强化特征信息。
7.根据权利要求1所述的方法,其特征在于,所述第一语音识别网络包括预设数目个第一特征提取层,所述第二语音识别网络包括预设数目个第二特征提取层,第一特征提取层和第二特征提取层一一对应;第一特征提取层所输出的第一特征信息,与对应的第二特征提取层输出的第二特征信息之间具有对应关系。
8.根据权利要求7所述的方法,其特征在于,所述根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,包括:
根据第一特征提取层的第一特征信息,以及该第一特征提取层对应的第二特征提取层所对应的强化特征信息,确定该第一特征提取层的层损失值;
根据第一语音识别网络中的第一特征提取层的层损失值,确定第一语音识别网络的网络损失值。
9.根据权利要求7所述的方法,其特征在于,所述根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,包括:
获取至少两种子网络信息,其中,子网络信息指示子网络所包括的第一特征提取层;
对于所述至少两种子网络信息指示的子网络,确定该子网络所包括的第一特征提取层的层损失值,以及根据该子网络所包括的第一特征提取层的层损失值确定该子网络的子网络损失值;
根据所述至少两种子网络的子网络损失值,确定第一语音识别网络的网络损失值。
10.根据权利要求9所述的方法,其特征在于,所述方法还包括:
将符合预设训练完成条件的第一语音识别网络发送至目标电子设备,其中,所述目标电子设备执行第二步骤;
所述第二步骤包括:从所述至少两种子网络信息中选取目标子网络信息;根据目标子网络信息启用第一语音识别网络中的第一特征提取层,作为目标子网络;利用所述目标子网络进行语音识别。
11.一种识别装置,其特征在于,包括:
第一生成单元,用于将语音数据输入至第一语音识别网络,得到第一语音识别网络生成的第一特征信息,其中,所述第一语音识别网络通过对第二语音识别网络进行量化得到;
第二生成单元,用于根据第一特征信息和强化特征信息,生成第一语音识别网络的网络损失值,其中,所述强化特征信息基于第二语音识别网络处理所述语音数据得到;
调整单元,用于根据所述网络损失值调整所述第一语音识别网络的参数,其中,符合预设训练完成条件的第一语音识别网络用于识别语音。
12.一种电子设备,其特征在于,包括:
至少一个处理器;
存储装置,用于存储至少一个计算机程序,
当所述至少一个计算机程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1-10中任一所述的方法。
13.一种计算机可读介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-10中任一所述的方法。
CN202210362734.9A 2022-04-07 2022-04-07 识别方法、装置和电子设备 Pending CN114913846A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210362734.9A CN114913846A (zh) 2022-04-07 2022-04-07 识别方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210362734.9A CN114913846A (zh) 2022-04-07 2022-04-07 识别方法、装置和电子设备

Publications (1)

Publication Number Publication Date
CN114913846A true CN114913846A (zh) 2022-08-16

Family

ID=82762709

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210362734.9A Pending CN114913846A (zh) 2022-04-07 2022-04-07 识别方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN114913846A (zh)

Similar Documents

Publication Publication Date Title
CN110413812B (zh) 神经网络模型的训练方法、装置、电子设备及存储介质
WO2020207174A1 (zh) 用于生成量化神经网络的方法和装置
CN112364860A (zh) 字符识别模型的训练方法、装置和电子设备
CN112786069B (zh) 语音提取方法、装置和电子设备
CN112650841A (zh) 信息处理方法、装置和电子设备
CN116703131B (zh) 电力资源分配方法、装置、电子设备和计算机可读介质
CN114995638A (zh) 触觉信号生成方法、装置、可读介质及电子设备
CN110009101B (zh) 用于生成量化神经网络的方法和装置
CN111783731B (zh) 用于提取视频特征的方法和装置
CN110288625A (zh) 用于处理图像的方法和装置
CN110489955B (zh) 应用于电子设备的图像处理、装置、计算设备、介质
CN111967584A (zh) 生成对抗样本的方法、装置、电子设备及计算机存储介质
CN113610228B (zh) 神经网络模型的构建方法及装置
CN114913846A (zh) 识别方法、装置和电子设备
CN111899747B (zh) 用于合成音频的方法和装置
CN111680754B (zh) 图像分类方法、装置、电子设备及计算机可读存储介质
CN110209851B (zh) 模型训练方法、装置、电子设备及存储介质
CN113240108A (zh) 模型训练方法、装置和电子设备
CN114038465A (zh) 语音处理方法、装置和电子设备
CN112241761A (zh) 模型训练方法、装置和电子设备
CN111797263A (zh) 图像标签生成方法、装置、设备和计算机可读介质
CN113709573A (zh) 配置视频特效方法、装置、设备及存储介质
CN112070163B (zh) 图像分割模型训练和图像分割方法、装置、设备
CN111310483B (zh) 一种翻译方法、装置、电子设备及存储介质
CN111582482B (zh) 用于生成网络模型信息的方法、装置、设备和介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination