CN110276072B - 电子设备、存储介质及基于神经网络的语义意图识别方法 - Google Patents
电子设备、存储介质及基于神经网络的语义意图识别方法 Download PDFInfo
- Publication number
- CN110276072B CN110276072B CN201910498793.7A CN201910498793A CN110276072B CN 110276072 B CN110276072 B CN 110276072B CN 201910498793 A CN201910498793 A CN 201910498793A CN 110276072 B CN110276072 B CN 110276072B
- Authority
- CN
- China
- Prior art keywords
- bit length
- neural network
- input data
- semantic
- output data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 79
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 26
- 238000004364 calculation method Methods 0.000 claims abstract description 16
- 238000004590 computer program Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 description 10
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000013139 quantization Methods 0.000 description 2
- 238000011946 reduction process Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Machine Translation (AREA)
Abstract
本申请提供一种电子设备、存储介质及基于神经网络的语义意图识别方法,神经网络获取表示语义意图的第一位长的输入数据,将所述输入数据的第一位长扩展至目标位长,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。本申请能够能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内理和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
Description
技术领域
本申请涉及神经网络计算技术领域,具体涉及一种电子设备、存储介质及基于神经网络的语义意图识别方法。
背景技术
随着智能技术的发展,目前能够实现机器与人类的简单交互,比如汽车领域,用户可以通过语音控制车辆。
其中,在进行语音控制时,用户需要利用自然语言进行信息搜索或指示机器执行特定的操作,这样就要求机器能够识别并获取到自然语言,而且需要准确提取到语义意图。例如,在语音搜索的应用场景中,机器获取用户输入的语音,将用户的语音转换成自然语言,然后提取语义并识别意图。
但是,以中文语音为例,现有技术对语音的语义意图识别,主要采用的是中文分词的识别技术。比如对输入的一个中文语句,首先根据样本词的概率,对中文语句进行分割,然后基于正则表达式(Regular Expression,或规则表达式,简写为regex、regexp或RE)进行语义的机械提取。
此外,现有技术的机器还会使用其所架构的各种神经网络对语义进行识别。对于神经网络而言,神经网络的各种参数(比如权重系数、偏置系数等)是其重要组成部分,这些参数是一些变量,通常是一些浮点值,而变量的值则是由训练数据训练出来,并在推理的时候使用。但是,这些参数的字节一般比较大,即使是小型的神经网络,其参数基本都会超过1Mb(兆字节),在将神经网络架构并存储到机器的过程中,会占据机器大量宝贵的存储空间。而且架构成功后的神经网络在运行过程中,采用这些参数进行计算的数据位长越大,代表占用运行的内存空间也越大。不难理解的是,内存空间的大小是决定机器比如计算机或者具体的处理芯片(integrated circuit,IC,集成电路)的成本的重要因素,因此机器需要采用的内存空间越大,则需要购买越贵的计算机或处理芯片,导致成本增加。
针对现有技术的多方面不足,本申请的发明人经过深入研究,提出一种电子设备、存储介质及基于神经网络的语义意图识别方法。
发明内容
本申请的目的在于,提供一种电子设备、存储介质及基于神经网络的语义意图识别方法,能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内存和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
为解决上述技术问题,本申请提供一种基于神经网络的语义意图识别方法,作为其中一种实施方式,所述基于神经网络的语义意图识别方法包括:
神经网络获取表示语义意图的第一位长的输入数据;
将所述输入数据的第一位长扩展至目标位长;
根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
作为其中一种实施方式,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:
所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
作为其中一种实施方式,所述将所述输入数据的第一位长扩展至目标位长的步骤,具体包括:
采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
作为其中一种实施方式,所述将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤,具体包括:
采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
作为其中一种实施方式,所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。
作为其中一种实施方式,所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤之前,还包括:
对所述输出数据进行舍入误差补偿。
作为其中一种实施方式:
所述对所述输出数据进行舍入误差补偿,包括:
将所述输出数据加上2N-1,其中,N为所述输出数据将要缩小至所述第二位长所缩小的总位数;
所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,对应包括:
将已加上2N-1的所述输出数据除以所述固定数值以将位长缩小至第二位长。
作为其中一种实施方式,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理的步骤中,所述神经网络的卷积层采用的卷积核的字长为3字节、4字节和5个字节,卷积核的维数为128维,使其与自然语言的特征相适配。
为解决上述技术问题,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,作为其中一种实施方式,所述计算机程序被处理器运行时执行上述的基于神经网络的语义意图识别方法的步骤。
为解决上述技术问题,本申请还提供一种电子设备,作为其中一种实施方式,包括处理器和存储器;
所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如上所述的基于神经网络的语义意图识别方法。
本申请提供的电子设备、存储介质及基于神经网络的语义意图识别方法,神经网络获取表示语义意图的第一位长的输入数据,将所述输入数据的第一位长扩展至目标位长,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。本申请能够能够对输入、处理计算的数据进行位长的智能性调整,避免占据大量的内理和存储的空间,可以采用存储空间相对较小的计算机或处理芯片,而不再需要花费昂贵的费用购买大存储空间的计算机或处理芯片,从而有效地降低/控制成本。
上述说明仅是本申请技术方案的概述,为了能够更清楚了解本申请的技术手段,而可依照说明书的内容予以实施,并且为了让本申请的上述和其他目的、特征和优点能够更明显易懂,以下特举较佳实施例,并配合附图,详细说明如下。
附图说明
图1为本申请基于神经网络的语义意图识别方法一实施方式的流程示意图。
图2为本申请神经网络一实施方式进行语义意图识别方法的量化计算实现方式示意图。
图3是本申请电子设备一实施方式的模块示意图。
具体实施方式
为更进一步阐述本申请为达成预定申请目的所采取的技术手段及功效,以下结合附图及较佳实施例,对本申请详细说明如下。
通过具体实施方式的说明,当可对本申请为达成预定目的所采取的技术手段及效果得以更加深入且具体的了解,然而所附图式仅是提供参考与说明之用,并非用来对本申请加以限制。
请参阅图1,图1为本申请基于神经网络的语义意图识别方法一实施方式的流程示意图。
本申请所述基于神经网络的语义意图识别方法可以包括但不限于如下步骤。
步骤S101,神经网络获取表示语义意图的第一位长的输入数据;
步骤S102,将所述输入数据的第一位长扩展至目标位长;
步骤S103,根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
步骤S104,将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
需要说明的是,本实施方式所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
需要指出的是,本实施方式所述将所述输入数据的第一位长扩展至目标位长的步骤,具体包括:采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
值得一提的是,本实施方式所述将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤,具体包括:采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
举例而言,本实施方式所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。比如,所述第一位长为八位,所述第二位长为八位,所述目标位长可以为十六位等,在此不做限定。
需要说明的是,本实施方式所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据的步骤之前,还包括:对所述输出数据进行舍入误差补偿。
具体而言,本实施方式所述对所述输出数据进行舍入误差补偿,包括:将所述输出数据加上2N-1,其中,N为所述输出数据将要缩小至所述第二位长所缩小的总位数。与之相对应的是,本实施方式所述采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,对应包括:将已加上2N-1的所述输出数据除以所述固定数值以将位长缩小至第二位长。
举例而言,由于自然语言一般是三至五个字节能表示一简单语义的短句,针对这种特征,本实施方式所述根据扩展至目标位长的输入数据进行神经网络计算识别处理的步骤中,所述神经网络的卷积层采用的卷积核的字长为3字节、4字节和5个字节,卷积核的维数为128维,使其与自然语言的特征相适配。
下面将结合具体实施例进行举例说明。
首先,本实施例所使用的神经网络的输入、输出等数据的位长都是8位,而神经网络内部计算使用则是16位的位长。其进行语义意图识别的神经网络量化过程可以包括以下步骤。
首先,将用于量化计算的输入数据从8位位长扩展为16位位长;
本实施例扩展指的是把8位扩展成16位位长,可以是乘以一个固定数值,比如扩展8位就乘以2的8次方,也就是乘以256。当然,在机器的处理芯片上,也可以采用移位的方式进行扩展。其中,乘法等价于左移,比如8位量化输入值为10,10乘以256等于2560,10左移8位就也是2560。
其次,将量化计算的系数从8位扩展为16位,其中,扩展的方式和输入数据的扩展方式一样,权重系数和偏置系数在参与计算前也对应扩展成16位。
然后,神经网络进行计算的过程,在整个神经网络计算过程中本实施例使用16位位长数据的方式。当然,计算的中间过程可能还会用到更长的位长,比如16位位长的数据在卷积过程中的乘法结果和加法过程中,由于进位等原因所以一般都会超过16位。
最后,将量化后输出数据从16位位长还原到8位位长。
需要说明的是,本实施例的还原过程是一个数值的缩小过程,比如16位的输出数据缩小成8位的输出数据,需要将输出数据除以256,也即是相当于输出数据右移8位。但是,右移就会出现截断或者舍入精度损失,本实施例可以使用四舍五入减少精度损失。
具体而言,本实施例在缩小输出数据的过程中,可以加入舍入误差补偿。比如,输出数据为0x87,如果0x87直接右移3位,最终的识别结果数据为0x10;相比之下,如果在右移前首先将输出数据加上2的3次方的一半,即如果将所述输出数据加上2的(3-1)次方,即0x87+0x04=0x8A,再将0x8A右移3位以后为0x11,因此,本实施例计算得到的0x11比0x10更合理,本实施例通过使用舍入误差补偿能减少误差。
本申请能够对输入、参数等数据用少位数保存,计算的时候把它们扩展成长位数数据,这样节省了存储空间,又保留了精度,降低了成本。
请参阅图2,本申请还提供一种神经网络,作为其中一种实施方式,其可以包括输入层、隐藏层和输出层等。
在本实施例中可以将利用自然语言的样本数据训练所述神经网络,得到神经网络的网络系数。所述神经网络的输入层获取表示语义意图的第一位长的输入数据。
所述神经网络将所述输入数据的第一位长扩展至目标位长。
所述神经网络的隐藏层根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据。
所述神经网络的输出层将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据。
需要说明的是,本实施方式所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
需要指出的是,本实施方式所述输入层采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
值得一提的是,本实施方式所述输出层采用除以固定数值的方式将所述输出数据的位长缩小至第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
举例而言,本实施方式所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。比如,所述第一位长为八位,所述第二位长为八位,所述目标位长可以为十六位等,在此不做限定。
请参阅图3,本申请还提供一种电子设备,作为其中一种实施方式,其可以包括处理器30和存储器31。
所述存储器31上存储有计算机程序,所述计算机程序在被所述处理器30运行时执行如上所述的基于神经网络的语义意图识别方法。
此外,本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,作为其中一种实施方式,所述计算机程序被处理器运行时执行上述的基于神经网络的语义意图识别方法的步骤。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元,即可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理模块中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅是本申请的较佳实施例而已,并非对本申请作任何形式上的限制,虽然本申请已以较佳实施例揭露如上,然而并非用以限定本申请,任何熟悉本专业的技术人员,在不脱离本申请技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本申请技术方案内容,依据本申请的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属于本申请技术方案的范围内。
Claims (7)
1.一种基于神经网络的语义意图识别方法,其特征在于,所述基于神经网络的语义意图识别方法包括:
神经网络获取表示语义意图的第一位长的输入数据;
将所述输入数据的第一位长扩展至目标位长;
根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据;
将所述输出数据加上2N-1,其中,N为所述输出数据将要缩小至第二位长所缩小的总位数;
将已加上2N-1的所述输出数据除以固定数值以将位长缩小至所述第二位长后,输出最终的识别结果数据,其中,所述固定数值为所述神经网络根据预先配置所提供。
2.根据权利要求1所述的基于神经网络的语义意图识别方法,其特征在于,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理,以得到用于表示语义意图的输出数据的步骤,具体包括:
所述神经网络采用大于或等于所述目标位长的权重系数和偏置系数对所述目标位长的输入数据进行神经网络计算识别处理,以得到大于或等于所述目标位长的表示语义意图的输出数据。
3.根据权利要求1所述的基于神经网络的语义意图识别方法,其特征在于,所述将所述输入数据的第一位长扩展至目标位长的步骤,具体包括:
采用乘以固定数值的方式将所述输入数据的第一位长扩展至目标位长,其中,所述固定数值为所述神经网络根据预先配置所提供。
4.根据权利要求1-3任一项所述的基于神经网络的语义意图识别方法,其特征在于,所述第一位长和所述第二位长相等,且所述目标位长为所述第一位长的整数倍。
5.根据权利要求2所述的基于神经网络的语义意图识别方法,其特征在于,所述根据扩展至目标位长的输入数据进行神经网络计算识别处理的步骤中,所述神经网络的卷积层采用的卷积核的字长为3字节、4字节和5个字节,卷积核的维数为128维,使其与自然语言的特征相适配。
6.一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,其特征在于,所述计算机程序被处理器运行时执行上述权利要求1至5任一项所述的基于神经网络的语义意图识别方法的步骤。
7.一种电子设备,其特征在于,包括处理器和存储器;
所述存储器上存储有计算机程序,所述计算机程序在被所述处理器运行时执行如权利要求1至5任一项所述的基于神经网络的语义意图识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910498793.7A CN110276072B (zh) | 2019-06-10 | 2019-06-10 | 电子设备、存储介质及基于神经网络的语义意图识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910498793.7A CN110276072B (zh) | 2019-06-10 | 2019-06-10 | 电子设备、存储介质及基于神经网络的语义意图识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110276072A CN110276072A (zh) | 2019-09-24 |
CN110276072B true CN110276072B (zh) | 2021-07-23 |
Family
ID=67960702
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910498793.7A Active CN110276072B (zh) | 2019-06-10 | 2019-06-10 | 电子设备、存储介质及基于神经网络的语义意图识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110276072B (zh) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105070288B (zh) * | 2015-07-02 | 2018-08-07 | 百度在线网络技术(北京)有限公司 | 车载语音指令识别方法和装置 |
CN108229668B (zh) * | 2017-09-29 | 2020-07-07 | 北京市商汤科技开发有限公司 | 基于深度学习的运算实现方法、装置和电子设备 |
CN108415923B (zh) * | 2017-10-18 | 2020-12-11 | 北京邮电大学 | 封闭域的智能人机对话系统 |
CN108363690A (zh) * | 2018-02-08 | 2018-08-03 | 北京十三科技有限公司 | 基于神经网络的对话语义意图预测方法及学习训练方法 |
CN109543190B (zh) * | 2018-11-29 | 2023-06-16 | 北京羽扇智信息科技有限公司 | 一种意图识别方法、装置、设备及存储介质 |
-
2019
- 2019-06-10 CN CN201910498793.7A patent/CN110276072B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110276072A (zh) | 2019-09-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109408526B (zh) | Sql语句生成方法、装置、计算机设备及存储介质 | |
CN107844828B (zh) | 神经网络中的卷积计算方法和电子设备 | |
CN107977229B (zh) | 一种指令生成过程的复用方法及装置、处理装置 | |
CN111783974A (zh) | 模型构建及图像处理方法、装置、硬件平台及存储介质 | |
CN110211562B (zh) | 一种语音合成的方法、电子设备及可读存储介质 | |
CN110705212B (zh) | 文本序列的处理方法、处理装置、电子终端和介质 | |
CN109960815B (zh) | 一种神经机器翻译nmt模型的创建方法及系统 | |
CN113158687B (zh) | 语义的消歧方法及装置、存储介质、电子装置 | |
CN112199473A (zh) | 一种知识问答系统中的多轮对话方法与装置 | |
CN112687266B (zh) | 语音识别方法、装置、计算机设备和存储介质 | |
CN111967260A (zh) | 多音字处理方法及装置、模型训练方法及装置 | |
CN114708855B (zh) | 一种基于二值残差神经网络的语音唤醒方法及系统 | |
CN111178258A (zh) | 一种图像识别的方法、系统、设备及可读存储介质 | |
CN111539228A (zh) | 向量模型训练方法及装置、相似度确定方法及装置 | |
CN112381147B (zh) | 动态图片相似度模型建立、相似度计算方法和装置 | |
CN110276072B (zh) | 电子设备、存储介质及基于神经网络的语义意图识别方法 | |
CN113362804A (zh) | 一种合成语音的方法、装置、终端及存储介质 | |
CN113268989A (zh) | 多音字处理方法及装置 | |
US20110313772A1 (en) | System and method for unit selection text-to-speech using a modified viterbi approach | |
US20230161555A1 (en) | System and method performing floating-point operations | |
CN110516125A (zh) | 识别异常字符串的方法、装置、设备及可读存储介质 | |
CN111274793A (zh) | 一种文本处理方法、装置以及计算设备 | |
CN112652299B (zh) | 时间序列语音识别深度学习模型的量化方法及装置 | |
CN114492754A (zh) | 神经网络生成、数据处理方法、装置、电子设备及介质 | |
CN112528646B (zh) | 词向量生成方法、终端设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right | ||
TR01 | Transfer of patent right |
Effective date of registration: 20220402 Address after: 430051 No. b1336, chuanggu startup area, taizihu cultural Digital Creative Industry Park, No. 18, Shenlong Avenue, Wuhan Economic and Technological Development Zone, Wuhan, Hubei Province Patentee after: Yikatong (Hubei) Technology Co.,Ltd. Address before: 430000 C101, chuanggu start-up area, taizihu cultural Digital Industrial Park, No. 18, Shenlong Avenue, Wuhan Economic and Technological Development Zone, Wuhan City, Hubei Province Patentee before: HUBEI ECARX TECHNOLOGY Co.,Ltd. |