CN110276072B - 电子设备、存储介质及基于神经网络的语义意图识别方法 - Google Patents

电子设备、存储介质及基于神经网络的语义意图识别方法 Download PDF

Info

Publication number
CN110276072B
CN110276072B CN201910498793.7A CN201910498793A CN110276072B CN 110276072 B CN110276072 B CN 110276072B CN 201910498793 A CN201910498793 A CN 201910498793A CN 110276072 B CN110276072 B CN 110276072B
Authority
CN
China
Prior art keywords
bit length
neural network
input data
semantic
output data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910498793.7A
Other languages
English (en)
Other versions
CN110276072A (zh
Inventor
李林峰
黄海荣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ecarx Hubei Tech Co Ltd
Original Assignee
Hubei Ecarx Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hubei Ecarx Technology Co Ltd filed Critical Hubei Ecarx Technology Co Ltd
Priority to CN201910498793.7A priority Critical patent/CN110276072B/zh
Publication of CN110276072A publication Critical patent/CN110276072A/zh
Application granted granted Critical
Publication of CN110276072B publication Critical patent/CN110276072B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供一种电子设备、存储介质及基于神经网络的语义意图识别方法,神经网络获取表示语义意图的第一位长的输入数据,将所述输入数据的第一位长扩展至目标位长,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。本申请能够能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内理和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。

Description

电子设备、存储介质及基于神经网络的语义意图识别方法
技术领域
本申请涉及神经网络计算技术领域,具体涉及一种电子设备、存储介质及基于神经网络的语义意图识别方法。
背景技术
随着智能技术的发展,目前能够实现机器与人类的简单交互,比如汽车领域,用户可以通过语音控制车辆。
其中,在进行语音控制时,用户需要利用自然语言进行信息搜索或指示机器执行特定的操作,这样就要求机器能够识别并获取到自然语言,而且需要准确提取到语义意图。例如,在语音搜索的应用场景中,机器获取用户输入的语音,将用户的语音转换成自然语言,然后提取语义并识别意图。
但是,以中文语音为例,现有技术对语音的语义意图识别,主要采用的是中文分词的识别技术。比如对输入的一个中文语句,首先根据样本词的概率,对中文语句进行分割,然后基于正则表达式(Regular Expression,或规则表达式,简写为regex、regexp或RE)进行语义的机械提取。
此外,现有技术的机器还会使用其所架构的各种神经网络对语义进行识别。对于神经网络而言,神经网络的各种参数(比如权重系数、偏置系数等)是其重要组成部分,这些参数是一些变量,通常是一些浮点值,而变量的值则是由训练数据训练出来,并在推理的时候使用。但是,这些参数的字节一般比较大,即使是小型的神经网络,其参数基本都会超过1Mb(兆字节),在将神经网络架构并存储到机器的过程中,会占据机器大量宝贵的存储空间。而且架构成功后的神经网络在运行过程中,采用这些参数进行计算的数据位长越大,代表占用运行的内存空间也越大。不难理解的是,内存空间的大小是决定机器比如计算机或者具体的处理芯片(integrated circuit,IC,集成电路)的成本的重要因素,因此机器需要采用的内存空间越大,则需要购买越贵的计算机或处理芯片,导致成本增加。
针对现有技术的多方面不足,本申请的发明人经过深入研究,提出一种电子设备、存储介质及基于神经网络的语义意图识别方法。
发明内容
本申请的目的在于,提供一种电子设备、存储介质及基于神经网络的语义意图识别方法,能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内存和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
为解决上述技术问题,本申请提供一种基于神经网络的语义意图识别方法,作为其中一种实施方式,所述基于神经网络的语义意图识别方法包括:
神经网络获取表示语义意图的第一位长的输入数据;
将所述输入数据的第一位长扩展至目标位长;
根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
作为其中一种实施方式,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:
所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
作为其中一种实施方式,所述将所述输入数据的第一位长扩展至目标位长的步骤,具体包括:
采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
作为其中一种实施方式,所述将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤,具体包括:
采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
作为其中一种实施方式,所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。
作为其中一种实施方式,所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤之前,还包括:
对所述输出数据进行舍入误差补偿。
作为其中一种实施方式:
所述对所述输出数据进行舍入误差补偿,包括:
将所述输出数据加上2N-1,其中,N为所述输出数据将要缩小至所述第二位长所缩小的总位数;
所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,对应包括:
将已加上2N-1的所述输出数据除以所述固定数值以将位长缩小至第二位长。
作为其中一种实施方式,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理的步骤中,所述神经网络的卷积层采用的卷积核的字长为3字节、4字节和5个字节,卷积核的维数为128维,使其与自然语言的特征相适配。
为解决上述技术问题,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,作为其中一种实施方式,所述计算机程序被处理器运行时执行上述的基于神经网络的语义意图识别方法的步骤。
为解决上述技术问题,本申请还提供一种电子设备,作为其中一种实施方式,包括处理器和存储器;
所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如上所述的基于神经网络的语义意图识别方法。
本申请提供的电子设备、存储介质及基于神经网络的语义意图识别方法,神经网络获取表示语义意图的第一位长的输入数据,将所述输入数据的第一位长扩展至目标位长,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。本申请能够能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内理和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本申请基于神经网络的语义意图识别方法一实施方式的流程示意图。
图2为本申请神经网络一实施方式进行语义意图识别方法的量化计算实现方式示意图。
图3是本申请电子设备一实施方式的模块示意图。
具体实施方式
为更进一步阐述本申请为达成预定申请目的所采取的技术手段及功效,以下结合附图及较佳实施例,对本申请详细说明如下。
通过具体实施方式的说明,当可对本申请为达成预定目的所采取的技术手段及效果得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本申请加以限制。
请参阅图1,图1为本申请基于神经网络的语义意图识别方法一实施方式的流程示意图。
本申请所述基于神经网络的语义意图识别方法可以包括但不限于如下步骤。
步骤S101,神经网络获取表示语义意图的第一位长的输入数据;
步骤S102,将所述输入数据的第一位长扩展至目标位长;
步骤S103,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
步骤S104,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
需要说明的是,本实施方式所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
需要指出的是,本实施方式所述将所述输入数据的第一位长扩展至目标位长的步骤,具体包括:采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
值得一提的是,本实施方式所述将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤,具体包括:采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
举例而言,本实施方式所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。比如,所述第一位长为八位,所述第二位长为八位,所述目标位长可以为十六位等,在此不做限定。
需要说明的是,本实施方式所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤之前,还包括:对所述输出数据进行舍入误差补偿。
具体而言,本实施方式所述对所述输出数据进行舍入误差补偿,包括:将所述输出数据加上2N-1,其中,N为所述输出数据将要缩小至所述第二位长所缩小的总位数。与之相对应的是,本实施方式所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,对应包括:将已加上2N-1的所述输出数据除以所述固定数值以将位长缩小至第二位长。
举例而言,由于自然语言一般是三至五个字节能表示一简单语义的短句,针对这种特征,本实施方式所述根据扩展至目标位长的输入数据进行神经网络计算识别处理的步骤中,所述神经网络的卷积层采用的卷积核的字长为3字节、4字节和5个字节,卷积核的维数为128维,使其与自然语言的特征相适配。
下面将结合具体实施例进行举例说明。
首先,本实施例所使用的神经网络的输入、输出等数据的位长都是8位,而神经网络内部计算使用则是16位的位长。其进行语义意图识别的神经网络量化过程可以包括以下步骤。
首先,将用于量化计算的输入数据从8位位长扩展为16位位长;
本实施例扩展指的是把8位扩展成16位位长,可以是乘以一个固定数值,比如扩展8位就乘以2的8次方,也就是乘以256。当然,在机器的处理芯片上,也可以采用移位的方式进行扩展。其中,乘法等价于左移,比如8位量化输入值为10,10乘以256等于2560,10左移8位就也是2560。
其次,将量化计算的系数从8位扩展为16位,其中,扩展的方式和输入数据的扩展方式一样,权重系数和偏置系数在参与计算前也对应扩展成16位。
然后,神经网络进行计算的过程,在整个神经网络计算过程中本实施例使用16位位长数据的方式。当然,计算的中间过程可能还会用到更长的位长,比如16位位长的数据在卷积过程中的乘法结果和加法过程中,由于进位等原因所以一般都会超过16位。
最后,将量化后输出数据从16位位长还原到8位位长。
需要说明的是,本实施例的还原过程是一个数值的缩小过程,比如16位的输出数据缩小成8位的输出数据,需要将输出数据除以256,也即是相当于输出数据右移8位。但是,右移就会出现截断或者舍入精度损失,本实施例可以使用四舍五入减少精度损失。
具体而言,本实施例在缩小输出数据的过程中,可以加入舍入误差补偿。比如,输出数据为0x87,如果0x87直接右移3位,最终的识别结果数据为0x10;相比之下,如果在右移前首先将输出数据加上2的3次方的一半,即如果将所述输出数据加上2的(3-1)次方,即0x87+0x04=0x8A,再将0x8A右移3位以后为0x11,因此,本实施例计算得到的0x11比0x10更合理,本实施例通过使用舍入误差补偿能减少误差。
本申请能够对输入、参数等数据用少位数保存,计算的时候把它们扩展成长位数数据,这样节省了存储空间,又保留了精度,降低了成本。
请参阅图2,本申请还提供一种神经网络,作为其中一种实施方式,其可以包括输入层、隐藏层和输出层等。
在本实施例中可以将利用自然语言的样本数据训练所述神经网络,得到神经网络的网络系数。所述神经网络的输入层获取表示语义意图的第一位长的输入数据。
所述神经网络将所述输入数据的第一位长扩展至目标位长。
所述神经网络的隐藏层根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据。
所述神经网络的输出层将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
需要说明的是,本实施方式所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
需要指出的是,本实施方式所述输入层采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
值得一提的是,本实施方式所述输出层采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
举例而言,本实施方式所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。比如,所述第一位长为八位,所述第二位长为八位,所述目标位长可以为十六位等,在此不做限定。
请参阅图3,本申请还提供一种电子设备,作为其中一种实施方式,其可以包括处理器30和存储器31。
所述存储器31上存储有计算机程序,所述计算机程序在被所述处理器30运行时执行如上所述的基于神经网络的语义意图识别方法。
此外,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,作为其中一种实施方式,所述计算机程序被处理器运行时执行上述的基于神经网络的语义意图识别方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅是本申请的较佳实施例而已,并非对本申请作任何形式上的限制,虽然本申请已以较佳实施例揭露如上,然而并非用以限定本申请,任何熟悉本专业的技术人员,在不脱离本申请技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本申请技术方案内容,依据本申请的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本申请技术方案的范围内。

Claims (7)

1.一种基于神经网络的语义意图识别方法,其特征在于,所述基于神经网络的语义意图识别方法包括:
神经网络获取表示语义意图的第一位长的输入数据;
将所述输入数据的第一位长扩展至目标位长;
根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
将所述输出数据加上2N-1,其中,N为所述输出数据将要缩小至第二位长所缩小的总位数;
将已加上2N-1的所述输出数据除以固定数值以将位长缩小至所述第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
2.根据权利要求1所述的基于神经网络的语义意图识别方法,其特征在于,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:
所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
3.根据权利要求1所述的基于神经网络的语义意图识别方法,其特征在于,所述将所述输入数据的第一位长扩展至目标位长的步骤,具体包括:
采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
4.根据权利要求1-3任一项所述的基于神经网络的语义意图识别方法,其特征在于,所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。
5.根据权利要求2所述的基于神经网络的语义意图识别方法,其特征在于,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理的步骤中,所述神经网络的卷积层采用的卷积核的字长为3字节、4字节和5个字节,卷积核的维数为128维,使其与自然语言的特征相适配。
6.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至5任一项所述的基于神经网络的语义意图识别方法的步骤。
7.一种电子设备,其特征在于,包括处理器和存储器;
所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至5任一项所述的基于神经网络的语义意图识别方法。
CN201910498793.7A 2019-06-10 2019-06-10 电子设备、存储介质及基于神经网络的语义意图识别方法 Active CN110276072B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910498793.7A CN110276072B (zh) 2019-06-10 2019-06-10 电子设备、存储介质及基于神经网络的语义意图识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910498793.7A CN110276072B (zh) 2019-06-10 2019-06-10 电子设备、存储介质及基于神经网络的语义意图识别方法

Publications (2)

Publication Number Publication Date
CN110276072A CN110276072A (zh) 2019-09-24
CN110276072B true CN110276072B (zh) 2021-07-23

Family

ID=67960702

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910498793.7A Active CN110276072B (zh) 2019-06-10 2019-06-10 电子设备、存储介质及基于神经网络的语义意图识别方法

Country Status (1)

Country Link
CN (1) CN110276072B (zh)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105070288B (zh) * 2015-07-02 2018-08-07 百度在线网络技术(北京)有限公司 车载语音指令识别方法和装置
CN108229668B (zh) * 2017-09-29 2020-07-07 北京市商汤科技开发有限公司 基于深度学习的运算实现方法、装置和电子设备
CN108415923B (zh) * 2017-10-18 2020-12-11 北京邮电大学 封闭域的智能人机对话系统
CN108363690A (zh) * 2018-02-08 2018-08-03 北京十三科技有限公司 基于神经网络的对话语义意图预测方法及学习训练方法
CN109543190B (zh) * 2018-11-29 2023-06-16 北京羽扇智信息科技有限公司 一种意图识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110276072A (zh) 2019-09-24

Similar Documents

Publication Publication Date Title
CN109408526B (zh) Sql语句生成方法、装置、计算机设备及存储介质
CN107844828B (zh) 神经网络中的卷积计算方法和电子设备
CN107977229B (zh) 一种指令生成过程的复用方法及装置、处理装置
CN111783974A (zh) 模型构建及图像处理方法、装置、硬件平台及存储介质
CN110211562B (zh) 一种语音合成的方法、电子设备及可读存储介质
CN110705212B (zh) 文本序列的处理方法、处理装置、电子终端和介质
CN109960815B (zh) 一种神经机器翻译nmt模型的创建方法及系统
CN113158687B (zh) 语义的消歧方法及装置、存储介质、电子装置
CN112199473A (zh) 一种知识问答系统中的多轮对话方法与装置
CN112687266B (zh) 语音识别方法、装置、计算机设备和存储介质
CN111967260A (zh) 多音字处理方法及装置、模型训练方法及装置
CN114708855B (zh) 一种基于二值残差神经网络的语音唤醒方法及系统
CN111178258A (zh) 一种图像识别的方法、系统、设备及可读存储介质
CN111539228A (zh) 向量模型训练方法及装置、相似度确定方法及装置
CN112381147B (zh) 动态图片相似度模型建立、相似度计算方法和装置
CN110276072B (zh) 电子设备、存储介质及基于神经网络的语义意图识别方法
CN113362804A (zh) 一种合成语音的方法、装置、终端及存储介质
CN113268989A (zh) 多音字处理方法及装置
US20110313772A1 (en) System and method for unit selection text-to-speech using a modified viterbi approach
US20230161555A1 (en) System and method performing floating-point operations
CN110516125A (zh) 识别异常字符串的方法、装置、设备及可读存储介质
CN111274793A (zh) 一种文本处理方法、装置以及计算设备
CN112652299B (zh) 时间序列语音识别深度学习模型的量化方法及装置
CN114492754A (zh) 神经网络生成、数据处理方法、装置、电子设备及介质
CN112528646B (zh) 词向量生成方法、终端设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220402

Address after: 430051 No. b1336, chuanggu startup area, taizihu cultural Digital Creative Industry Park, No. 18, Shenlong Avenue, Wuhan Economic and Technological Development Zone, Wuhan, Hubei Province

Patentee after: Yikatong (Hubei) Technology Co.,Ltd.

Address before: 430000 C101, chuanggu start-up area, taizihu cultural Digital Industrial Park, No. 18, Shenlong Avenue, Wuhan Economic and Technological Development Zone, Wuhan City, Hubei Province

Patentee before: HUBEI ECARX TECHNOLOGY Co.,Ltd.