CN113326913A - 神经网络模型的转换方法、模型精度定位方法及装置 - Google Patents
神经网络模型的转换方法、模型精度定位方法及装置 Download PDFInfo
- Publication number
- CN113326913A CN113326913A CN202010129010.0A CN202010129010A CN113326913A CN 113326913 A CN113326913 A CN 113326913A CN 202010129010 A CN202010129010 A CN 202010129010A CN 113326913 A CN113326913 A CN 113326913A
- Authority
- CN
- China
- Prior art keywords
- model
- neural network
- network model
- precision
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003062 neural network model Methods 0.000 title claims abstract description 549
- 238000000034 method Methods 0.000 title claims abstract description 184
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 132
- 238000012795 verification Methods 0.000 claims abstract description 60
- 230000008569 process Effects 0.000 claims description 109
- 238000012545 processing Methods 0.000 claims description 65
- 238000013507 mapping Methods 0.000 claims description 33
- 230000015654 memory Effects 0.000 claims description 33
- 230000009466 transformation Effects 0.000 claims description 33
- 230000004044 response Effects 0.000 claims description 8
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000013528 artificial neural network Methods 0.000 description 14
- 238000004590 computer program Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Navigation (AREA)
- Data Exchanges In Wide-Area Networks (AREA)
Abstract
本公开提供了一种神经网络模型的转换方法、模型精度定位方法及装置。在神经网络模型的转换的方案中,模型转换装置根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的推理结果,可以自动得到第二神经网络模型的精度验证结果,提高了神经网络模型转换的精度验证效率。在模型精度定位的方案中,模型精度定位装置根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的每个网络层的输出数据,可以定位第二神经网络模型中精度未对齐的目标网络层,实现了精度未对齐时的网络层的准确定位。
Description
技术领域
本公开涉及人工智能(artificial intelligence,AI)技术领域,尤其涉及一种神经网络模型的转换方法、模型精度定位方法及装置。
背景技术
目前业界开发了各种各样的深度学习模型框架,每个框架具备自己的网络结构定义和工具包。由于不同的框架在训练、部署、平台兼容性等方面上有各自的优势,因此经常需要对深度学习模型进行框架之间的转换。神经网络模型的转换是指把在某个框架下定义的神经网络模型转换到另一个框架下。
然而,在神经网络模型转换后,需要通过程序员手动来验证模型精度,精度验证效率低下。
发明内容
本公开提供了一种神经网络模型的转换技术方案。
第一方面,提供了一种神经网络模型的转换方法,所述方法包括:模型转换装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;模型转换装置基于所述模型输入数据对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;模型转换装置基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据的推理结果,得到所述第二神经网络模型的精度验证结果。
模型转换装置可以基于用户指令进行模型转换处理,该用户指令用于指示将源框架下的第一神经网络模型转换到目标框架下,该用户指令包括源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。模型转换装置也可以基于内部的操作指令进行模型转换处理,例如模型转换指令,该内部的操作指令用于指示将源框架下的第一神经网络模型转换到目标框架下,该内部的操作指令包括上述信息。
在一种可能的实现中,模型转换装置在对第一神经网络模型进行模型转换处理的过程中得到所述第一神经网络模型对所述模型输入数据的第一推理结果。
在一种可能的实现中,模型转换装置在本地存储所述第一推理结果。
在一种可能的实现中,模型转换装置通过所述第二神经网络模型对所述模型输入数据进行处理,得到第二推理结果。
在一种可能的实现中,模型转换装置通过比较第一推理结果和第二推理结果,得到第二神经网络模型的精度验证结果。
在一种可能的实现中,所述对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型,包括:通过第一进程对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;所述方法还包括:通过所述第一进程创建第二进程;通过所述第一进程调用所述第二进程,在所述第二进程中通过所述第二神经网络模型对所述模型输入数据进行处理,得到第二推理结果。
在一种可能的实现中,所述模型转换装置基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据的推理结果,得到所述第二神经网络模型的精度验证结果,包括:若所述第一推理结果与所述第二推理结果之间的差别处于预设误差范围内,确定所述第二神经网络模型的精度验证结果为精度对齐;和/或若所述第一推理结果与所述第二推理结果之间的差别超出所述预设误差范围,确定所述第二神经网络模型的精度验证结果为精度未对齐。
在一种可能的实现中,所述方法还包括:响应于确定所述第二神经网络模型的精度验证结果为精度未对齐,所述模型转换装置定位所述第二神经网络模型中精度未对齐的目标网络层;所述模型转换装置输出所述目标网络层的信息。
在一种可能的实现中,所述定位所述第二神经网络模型中精度未对齐的目标网络层,包括:所述模型转换装置建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;所述模型转换装置基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的过程中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
在一种可能的实现中,所述目标网络层为第二神经网络包括的多个网络层中最先出现精度未对齐的网络层。
在另一种可能的实现中,所述目标网络层为所述第二神经网络模型中出现精度未对齐的多个网络层。例如不仅包括最先出现精度未对齐的网络层,还包括所述网络层的后续网络层。
在一种可能的实现中,可以通过比较第一神经网络模型和第二神经网络模型中各个网络层的输出数据,确定目标网络层。
在一种可能的实现方式中,若所述第二神经网络模型包括的网络层与所述第一神经网络模型的对应网络层的输出数据之间的差别超过预设误差范围,则认定该网络层为精度未对齐的网络层。
在一种可能的实现中,所述目标网络层的信息,包括下列中的至少一项:所述目标网络层的标识、参数、输出数据、与对应网络层的输出数据之间的误差。
在一种可能的实现中,所述模型转换装置对所述第一神经网络模型再次进行模型转换处理,其中,在所述再次进行模型转换处理的过程中,获取所述第一神经网络模型中的每个网络层的输出数据,和/或建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系。
在一种可能的实现中,所述模型转换装置对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型,包括:所述模型转换装置通过所述第一神经网络模型对所述模型输入数据的处理,建立网络拓扑图,其中,所述网络拓扑图包括所述第一神经网络模型中的网络层的信息以及网络层的连接关系;所述模型转换装置基于所述网络拓扑图以及所述目标框架的信息,得到所述第二神经网络模型。
第二方面,提供了一种模型转换装置,所述装置包括:获取单元,用于获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;转换单元,用于对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;验证单元,用于基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据进行处理得到的第一推理结果和第二推理结果,得到所述第二神经网络模型的精度验证结果。第三方面,提供了一种电子设备,包括存储器和处理器,其中,所述存储器中存储程序指令,且所述处理器用于调用所述存储器中存储的程序指令,执行第一方面或第一方面的任一个实现所述的方法。
第四方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面的任一个实现所述的方法。
第五方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面或第一方面的任一个实现所述的方法。
采用本公开的神经网络模型的转换方案,具有如下技术效果:
根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的推理结果,可以自动得到第二神经网络模型的精度验证结果,提高了神经网络模型转换的精度验证效率。
本申请实施例还提供一种模型精度定位方案。
第六方面,提供了一种模型精度定位方法,包括:模型精度定位装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;所述模型精度定位装置对所述第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型对所述模型输入数据进行处理得到的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层;所述模型精度定位装置输出所述目标网络层的信息。
在已知第二神经网络模型与第一神经网络模型的精度未对齐的情况下,模型精度定位装置可以基于用户指令进行模型精度定位,该用户指令用于指示定位第二神经网络模型中精度未对齐的目标网络层,该用户指令包括源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。例如,用户在获取到第二神经网络模型与第一神经网络模型的精度未对齐的结果时,则向模型精度定位装置发送该用户指令。模型精度定位装置也可以基于内部的操作指令进行模型精度定位,例如模型精度定位指令。例如,模型精度定位装置在获取到第二神经网络模型与第一神经网络模型的精度未对齐的指令时,则触发模型精度定位指令。该内部的操作指令用于指示定位第二神经网络模型中精度未对齐的目标网络层,该内部的操作指令包括上述信息。在一种可能的实现方式中,通过所述第二神经网络模型对所述模型输入数据进行处理,得到所述第二神经网络模型中每个网络层的输出数据。
在一种可能的实现方式中,在所述模型转换处理的过程中得到所述第一神经网络模型对所述模型输入数据进行处理的每个网络层的输出数据。
在一种可能的实现中,所述目标网络层为第二神经网络包括的多个网络层中最先出现精度未对齐的网络层。
在另一种可能的实现中,所述目标网络层为所述第二神经网络模型中出现精度未对齐的多个网络层。例如不仅包括最先出现精度未对齐的网络层,还包括所述网络层的后续网络层。
在一种可能的实现中,可以通过比较第一神经网络模型和第二神经网络模型中各个网络层的输出数据,确定目标网络层。
在一种可能的实现方式中,若所述第二神经网络模型包括的网络层与所述第一神经网络模型的对应网络层的输出数据之间的差别超过预设误差范围,则认定该网络层为精度未对齐的网络层。
在一种可能的实现中,所述目标网络层的信息,包括下列中的至少一项:所述目标网络层的标识、参数、输出数据、与对应网络层的输出数据之间的误差。
在一种可能的实现中,所述方法还包括:所述模型精度定位装置基于所述模型转换处理,建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型对所述模型输入数据进行处理得到的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层,包括:所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
在一种可能的实现中,所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层,包括:所述模型精度定位装置基于所述映射关系依次比较所述第一神经网络模型和所述第二神经网络模型中对应网络层的输出数据;响应于所述第一神经网络模型和所述第二神经网络模型中对应网络层的输出数据之间的差别超出预设误差范围,将所述对应网络层中属于所述第二神经网络模型中的网络层确定为所述目标网络层。
在一种可能的实现中,所述模型精度定位装置对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型,包括:所述模型精度定位装置通过所述第一神经网络模型对所述模型输入数据的处理,建立网络拓扑图,其中,所述网络拓扑图包括所述第一神经网络模型中的网络层的信息以及网络层的连接关系;所述模型精度定位装置基于所述网络拓扑图以及所述目标框架的信息,得到所述第二神经网络模型。
第七方面,提供了一种模型精度定位装置,包括:获取单元,用于获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;转换单元,用于对所述第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;定位单元,用于基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层;输出单元,用于输出所述目标网络层的信息。第八方面,提供了一种电子设备,包括存储器和处理器,其中,所述存储器中存储程序指令,且所述处理器用于调用所述存储器中存储的程序指令执行第六方面或第六方面的任一个实现所述的方法。
第九方面,提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第六方面或第六方面的任一个实现所述的方法。
第十方面,提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第六方面或第六方面的任一个实现所述的方法。
采用本公开的模型精度定位方案,具有如下技术效果:
根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的每个网络层的输出数据,可以定位第二神经网络模型中精度未对齐的目标网络层,实现了精度未对齐时的网络层的准确定位。
附图说明
图1为本公开实施例提供的神经网络模型的转换方法的流程示意图;
图2为本公开实施例提供的神经网络模型的转换的示意图;
图3为本公开实施例提供的神经网络模型的转换方法的又一流程示意图;
图4为本公开实施例提供的目标网络层定位过程中得到的网络拓扑示意图;
图5为本公开实施例提供的模型精度定位方法的流程示意图;
图6为本公开实施例提供的模型精度定位方法的又一流程示意图;
图7为本公开实施例提供的模型转换装置的结构示意图;
图8为本公开实施例提供的模型精度定位装置的结构示意图;
图9为本公开实施例提供的电子设备的硬件结构示意图。
具体实施方式
下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
应理解,本公开中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。本公开中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
请参阅图1,为本公开实施例提供的神经网络模型的转换方法的流程示意图,该方法包括以下步骤:
S101、模型转换装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。
由于不同的框架在训练、部署、平台兼容性等方面上有各自的优势,因此可以对神经网络模型进行框架之间的转换。每个框架具备自己的网络结构定义和工具包。神经网络模型的转换是指把在某个框架下定义的神经网络模型转换到另一个框架下,例如,将tensorflow框架下的神经网络模型转换到pytorch框架下,或者,将自定义框架下的神经网络模型转换到pytorch或者tensorflow等较为通用的框架或者反之,等等。神经网络模型转换之前对应的框架称为“源框架”,神经网络模型转换之后对应的框架称为“目标框架”,本公开实施例对源框架和目标框架的具体实现不做限定。
模型转换装置可以基于用户指令进行模型转换处理,该用户指令用于指示将源框架下的第一神经网络模型转换到目标框架下,该用户指令包括源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。模型转换装置也可以基于内部的操作指令进行模型转换处理,例如模型转换指令,该内部的操作指令用于指示将源框架下的第一神经网络模型转换到目标框架下,该内部的操作指令包括上述信息。其中,第一神经网络模型是一种通用的神经网络模型,可以是任意功能的神经网络模型。该第一神经网络模型包括一个或多个网络层,例如卷积层、池化层、全连接层、归一化层等。该源框架下的第一神经网络模型,包括源框架下的第一神经网络模型中每一个网络层的结构描述文件等,该结构描述文件用于描述网络层的名称、层的索引等。该模型输入数据,是指用于神经网络模型推理的模型输入数据,或者可以称为测试数据。该模型输入数据可以是一个图片、一段文字等。该目标框架的信息包括目标框架的标识、格式、工具包等。
S102、模型转换装置对源框架下的第一神经网络模型进行模型转换处理,得到目标框架下的第二神经网络模型。
要获得目标框架下的第二神经网络模型,需对源框架下的第一神经网络模型进行模型转换处理,即将第一神经网络模型转换到目标框架下。如图2所示,为本公开实施例提供的神经网络模型的转换的示意图,可以采用专用的神经网络模型转换工具进行神经网络模型的框架转换。利用神经网络模型转换工具把源框架下的第一神经网络模型的各个网络层分别转换成目标框架的格式,得到目标框架下的第二神经网络模型的各个网络层,从而得到目标框架下的第二神经网络模型,其中,第一神经网络模型的一个网络层可能会转换成第二神经网络模型的一个或多个网络层,第二神经网络模型的一个网络层可能对应第一神经网络模型的一个或多个网络层,本公开实施例对此不做限定。
在一些实施例中,模型转换装置在对第一神经网络模型进行上述模型转换处理的过程中,运行第一神经网络模型对模型输入数据的推理过程,可以得到第一推理结果,例如图2所示的输出1。可选地,可以将该推理结果作为第一推理结果在本地进行存储或记录。该第一推理结果可以用于第二神经网络模型的精度的验证。即在模型转换过程中,即可得到第一神经网络模型对模型输入数据的推理结果,而无需重新运行一遍推理过程。从而提高了精度验证的效率。
在另外一些实施例中,模型转换装置也可以重新输入模型输入数据到第一神经网络模型,运行第一神经网络模型对模型输入数据的推理过程,得到第一推理结果。
在另外一些实施例中,模型转换装置可能预先存储了第一神经网络模型对模型输入数据的第一推理结果。
模型转换装置对源框架下的第一神经网络模型进行模型转换处理,得到目标框架下的第二神经网络模型。具体地,首先,模型转换装置对第一神经网络模型进行模型解析处理,得到第一神经网络模型的网络拓扑图,其中,可选地,该模型解析处理可以通过第一神经网络模型对模型输入数据的推理或者其他方式得到,该网络拓扑图也可以称为计算图,可以包括第一神经网络模型中的各个网络层以及各个网络层的连接关系,例如如图4所示的网络拓扑结构,其中,该网络拓扑图可以不包含每个网络层的输出,有利于提高模型转换效率。
然后,模型转换装置基于网络拓扑图以及目标框架的信息,得到第二神经网络模型。模型转换装置在获得第一神经网络的网络拓扑图后,目标框架具备自己的网络结构定义和工具包,模型转换装置可以基于第一神经网络的网络拓扑图,利用目标框架的网络结构定义和/或工具包对该第一神经网络的网络拓扑图进行适应性网络构建,得到第二神经网络模型。
S103、模型转换装置基于第一神经网络模型和第二神经网络模型分别对模型输入数据进行处理得到的第一推理结果和第二推理结果,得到第二神经网络模型的精度验证结果。
在获得目标框架下的第二神经网络模型之后,可以将上述模型输入数据输入到第二神经网络模型,用该模型输入数据在该第二神经网络模型上的每一个网络层运行一遍推理,上一个网络层输出的推理结果可以作为下一个网络层的输入数据,最后得到第二神经网络模型的最终的推理结果,即第二推理结果。
可以理解的是,该第一推理结果是在源框架下的第一神经网络模型对模型输入数据进行处理得到的最后一层的输出结果或者倒数的某一层的有意义的推理结果,相应地,该第二推理结果是在目标框架下的第二神经网络模型对模型输入数据进行处理得到的最后一层的输出结果或者倒数的某一层的有意义的推理结果,本公开实施例对此不做限定。
如图2所示,模型输入数据分别输入源框架下的第一神经网络模型和目标框架下的第二神经网络模型,分别得到输出1(即上述第一推理结果)和输出2(即上述第二推理结果)。
在获得第一推理结果和第二推理结果后,由于该第一推理结果和第二推理结果是采用同一模型输入数据分别在第一神经网络模型和第二神经网络模型中运行推理得到的,因此,根据该第一推理结果和第二推理结果,例如,比较该第一推理结果和第二推理结果,可以得到目标框架下的第二神经网络模型的精度验证结果。又例如,可以将第二推理结果的多个参数值,与第一推理结果中的相应的参数值一一进行匹配,得到匹配结果,即可以得到上述精度验证结果。在一些实施例中,该精度验证结果可以指示第二神经网络模型与第一神经网络模型的模型精度的比较结果,例如精度对齐或精度未对齐,或者该精度验证结果可以指示第二神经网络模型的模型精度是否满足预期或者设定标准,例如,精度达标或精度不达标,等等,本公开实施例对此不做限定。
在一些实施例中,可以输出该精度验证结果,或者也可以保存第二神经网络模型的信息,本公开实施例不限于此。
如图2所示,根据源框架下的神经网络模型的输出1和目标框架下的神经网络模型的输出2,进行精度验证。
根据本公开实施例提供的一种神经网络模型的转换方法,根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的推理结果,可以自动得到第二神经网络模型的精度验证结果,提高了神经网络模型转换的精度验证效率。
请参阅图3,为本公开实施例提供的神经网络模型的转换方法的又一流程示意图,该方法包括以下步骤:
S201、模型转换装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。
该步骤的具体实现可参考图1所示实施例中的步骤S101。
S202、通过第一进程对源框架下的第一神经网络模型进行模型转换处理,得到目标框架下的第二神经网络模型,并记录第一神经网络模型对模型输入数据处理得到的第一推理结果。
该步骤的具体实现可参考图1所示实施例中的步骤S102。
上述模型转换过程是在第一进程中进行的。
S203、通过第一进程创建第二进程。
利用同一模型输入数据在第二神经网络模型中运行推理时,为了防止运行推理过程中的资源冲突,可以通过上述第一进程创建新的进程,即第二进程,该第二进程与上述第一进程所占用的资源不同。
可以理解的是,在多进程的调用上,神经网络模型转换工具和源框架下的第一神经网络模型一般是基于某个平台开发的,但在进行神经网络模型的框架转换时,会根据不同的目标框架选择不同的执行方式。因而,创建的该第二进程可以是系统环境下的进程,也可以是该平台下的进程。
通过创建新的进程,在该新进程中运行第二神经网络模型对模型输入数据的推理,可以避免在推理过程中,第二神经网络模型和第一神经网络模型在同一进程中的某些系统调用的冲突,导致程序奔溃。提高了推理过程的可靠性。
S204、通过第一进程调用第二进程,以使得第二进程执行第二神经网络模型对模型输入数据的处理,得到第二推理结果。
通过第一进程调用新创建的第二进程,将上述模型输入数据输入第二神经网络模型,用该模型输入数据在该第二神经网络模型上的每一个网络层运行一遍推理,上一个网络层输出的推理结果可以作为下一个网络层的输入数据,最后得到第二神经网络模型的最终的推理结果,即第二推理结果。
S205、判断第一推理结果与第二推理结果之间的差别是否处于预设误差范围内,若是,则进行到步骤S206;若否,则进行到S207。
S206、确定第二神经网络模型的精度验证结果为精度对齐。
S207、确定第二神经网络模型的精度验证结果为精度未对齐。
在获得第一推理结果和第二推理结果后,由于该第一推理结果和第二推理结果是采用同一模型输入数据分别在第一神经网络模型和第二神经网络模型中运行推理得到的,因此,根据该第一推理结果和第二推理结果,可以得到目标框架下的第二神经网络模型的精度验证结果。具体地,如果第一推理结果与第二推理结果之间的差别处于预设误差范围内,则确定第二神经网络模型的精度验证结果为精度对齐。如果第一推理结果与第二推理结果之间的差别超出预设误触范围,则确定第二神经网络模型的精度验证结果为精度未对齐。
S208、响应于确定第二神经网络模型的精度验证结果为精度未对齐,模型转换装置定位第二神经网络模型中精度未对齐的目标网络层。
当确定第二神经网络模型的精度验证结果为精度未对齐时,需要定位出第一神经网络模型和第二神经网络模型中首先出现精度未对齐的网络层,即定位首先出现推理结果不一致的网络层,该定位出的网络层称为目标网络层。其中,该目标网络层为第二神经网络包括的多个网络层中最先出现精度未对齐的网络层。或者说,该目标网络层为第二神经网络模型包括的多个网络层中与第一神经网络模型的对应网络层的输出数据之间的差别超过预设误差范围的首个网络层。
为了提升神经网络模型转换工具的效率,在前述神经网络模型的精度验证过程中,一般不保存任何层的推理结果。当精度验证结果为精度未对齐时,神经网络模型转换工具重新进行一次神经网络模型转换和推理,用于定位精度问题。即模型转换装置对第一神经网络模型再次进行模型转换处理。神经网络模型每一层的推理数据都较大,一般不将神经网络模型的推理数据保存在内存中,而是将推理数据本地化,即存储在本地。因此,在再次进行模型转换处理的过程中,在本地保存第一神经网络模型中的每个网络层的输出数据。在验证某一个网络层的精度时把该网络层的数据从本地加载到内存中。
由于利用神经网络模型转换工具把源框架下的第一神经网络模型的各个网络层分别转换成目标框架的格式的过程中,源框架会用该模型输入数据在第一神经网络模型上运行一遍推理,可以获得第一神经网络模型中的网络层的信息以及网络层的连接关系。然后,模型转换装置可以基于第一神经网络的网络拓扑图,利用目标框架的网络结构定义和工具包对该第一神经网络的网络拓扑图进行适应性配置,得到第二神经网络模型。因此,进一步地,在再次进行模型转换处理的过程中,还可以建立第一神经网络模型和第二神经网络模型中的网络层之间的映射关系。其中,第一神经网络模型和第二神经网络模型的网络层之间的映射关系可以为一对多、多对一或者一对一,相应地,目标网络层可以为一个或多个网络层。
然后将同一模型输入数据输入到第二神经网络模型中,记录第二神经网络模型处理模型输入数据的过程中每个网络层的输出数据。
模型转换装置在获得了于第一神经网络模型和第二神经网络模型中每个网络层的输出数据,以及第一神经网络模型和第二神经网络模型中的网络层之间的映射关系后,可以基于第一神经网络模型和第二神经网络模型中每个网络层的输出数据以及映射关系,确定第二神经网络模型中首先出现精度未对齐的目标网络层。
具体地,在精度定位过程中,为了准确定位首先出现精度未对齐的目标网络层,给第一神经网络模型中的每个网络层配置一个序号。该序号可以是升序的,从而在定位精度问题时,可以根据第一神经网络模型中的多个网络层的序号,依次调用第一神经网络模型中的每一个网络层。
对于调用的每一个网络层,将上一个网络层输出的推理结果输入下一个网络层进行推理,得到每一个网络层的推理结果。并且,根据每一个网络层的序号,在本地对应存储每一个网络层的推理结果。并且给每一个网络层的推理结果也进行标识。其中,一个网络层可能存在多个输入。只保存每层输出的推理结果,因为除了最初的输入数据,其它层的输入都是上一层的输出,因此一旦记录了第一神经网络模型的最初的输入和每一层的输出,相当于记录了所有层的输入和输出。如图4所示,为本公开实施例提供的目标网络层定位过程中得到的网络拓扑示意图,该神经网络模型包括多个网络层:卷积层、激活函数、归一化层、Eltwise层和池化层等。初始输入数据到神经网络模型的第一个网络层后,每个网络层的输出作为下一个网络层的输入。该神经网络模型的推理结果包括初始输入数据、输入/输出数据1~10。
把第一神经网络模型中的每个网络层单独地转换到目标框架下,得到第二神经网络模型。输入同一模型输入数据到第二神经网络模型,然后使用每层的输入运行出模型的每一层在第二神经网络模型中的推理结果,并保存在本地,保存时以每个网络层的序号为索引。当然,在目标框架下的推理同样需要在新的进程中进行。
在获得了神经网络模型的每个网络层在源框架和目标框架下的推理结果之后,可以根据每个网络层的序号,依次比较源框架下的第一神经网络模型中的每一个网络层的推理结果与目标框架下的第二神经网络模型中的对应的网络层的推理结果,定位第二神经网络模型中与第一神经网络模型首先精度未对齐的网络层,即目标网络层。
S209、模型转换装置输出目标网络层的信息。
模型转换装置在确定了目标网络层后,可以输出该目标网络层的信息。该目标网络层的信息包括网络层的标识、参数、输入数据、输出结果等。管理员或用户可根据该目标网络层的信息分析精度未对齐的原因。
根据本公开实施例提供的一种神经网络模型的转换方法,根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的推理结果,可以自动得到第二神经网络模型的精度验证结果,提高了神经网络模型转换的精度验证效率;且根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的每个网络层的输出数据,可以定位第二神经网络模型中精度未对齐的目标网络层,实现了精度未对齐时的网络层的准确定位。
当把源框架的神经网络模型转换到目标框架时,给神经网络模型同一个模型输入数据,在源框架的输出与在目标框架的输出偏差要在误差范围内。若不在误差范围内,则需要定位神经网络模型的哪一个网络层在两个框架下的推理结果不同。目前已开源的神经网络模型转换工具均不验证神经网络模型转换前后的输出精度是否一致,需要用户手动在两个框架下运行保存结果,然后进行比对。精度不一致时用户便需要根据经验修改神经网络模型,输出神经网络模型中一些层的结果,定位出两个框架结果不一致的网络层。这样的方式会花费很多时间,同时对于一些比较大的神经网络模型,定位问题往往非常困难。
请参阅图5,为本公开实施例提供的模型精度定位方法的流程示意图,该方法包括以下步骤:
S301、模型精度定位装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。
在已知第二神经网络模型与第一神经网络模型的精度未对齐的情况下,模型精度定位装置可以基于用户指令进行模型精度定位,该用户指令用于指示定位第二神经网络模型中精度未对齐的目标网络层,该用户指令包括源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。例如,用户在获取到第二神经网络模型与第一神经网络模型的精度未对齐的结果时,则向模型精度定位装置发送该用户指令。模型精度定位装置也可以基于内部的操作指令进行模型精度定位,例如模型精度定位指令。例如,模型精度定位装置在获取到第二神经网络模型与第一神经网络模型的精度未对齐的指令时,则触发模型精度定位指令。该内部的操作指令用于指示定位第二神经网络模型中精度未对齐的目标网络层,该内部的操作指令包括上述信息。
该步骤的具体实现可参考图1所示实施例的步骤S101,或者图3所示实施例的步骤S201。S302、模型精度定位装置对第一神经网络模型进行模型转换处理,得到目标框架下的第二神经网络模型。
该步骤的具体实现可参考图1所示实施例的步骤S102,或者图3所示实施例的步骤S202。
S303、模型精度定位装置基于第一神经网络模型和第二神经网络模型分别处理模型输入数据的每个网络层的输出数据,定位第二神经网络模型中精度未对齐的目标网络层。
模型精度定位装置在对第一神经网络模型进行上述模型转换处理的过程中,运行第一神经网络模型对模型输入数据的推理过程,可以得到第一神经网络模型对模型输入数据进行处理的每个网络层的输出数据。可选地,可以将第一神经网络模型的每个网络层的输出数据在本地进行存储或记录。
在另外一些实施例中,模型转换装置也可以重新输入模型输入数据到第一神经网络模型,运行第一神经网络模型对模型输入数据的推理过程,得到第一神经网络模型对模型输入数据进行处理的每个网络层的输出数据。
在另外一些实施例中,模型转换装置可能预先存储了第一神经网络模型对模型输入数据进行推理得到的每个网络层的输出数据。
在获得目标框架下的第二神经网络模型之后,可以将上述模型输入数据输入到第二神经网络模型,用该模型输入数据在该第二神经网络模型上的每一个网络层运行一遍推理,上一个网络层输出的推理结果可以作为下一个网络层的输入数据,得到第二神经网络模型中每个网络层的输出数据。
在获得第一推理结果和第二推理结果后,由于该第一推理结果和第二推理结果是采用同一模型输入数据分别在第一神经网络模型和第二神经网络模型中运行推理得到的,因此,根据该第一推理结果和第二推理结果,例如,比较该第一推理结果和第二推理结果,可以得到目标框架下的第二神经网络模型的精度验证结果。又例如,可以将第二推理结果的多个参数值,与第一推理结果中的相应的参数值一一进行匹配,得到匹配结果,即可以得到上述精度验证结果。在一些实施例中,该精度验证结果可以指示第二神经网络模型与第一神经网络模型的模型精度的比较结果,例如精度对齐或精度未对齐,或者该精度验证结果可以指示第二神经网络模型的模型精度是否满足预期或者设定标准,例如,精度达标或精度不达标,等等,本公开实施例对此不做限定。
在获得第一神经网络模型的每个网络层的输出结果和第二神经网络模型的每个网络层的输出结果后,由于该第一神经网络模型的每个网络层的输出结果和第二神经网络模型的每个网络层的输出结果是采用同一模型输入数据分别在第一神经网络模型和第二神经网络模型中运行推理得到的,因此,根据该第一神经网络模型的每个网络层的输出结果和第二神经网络模型的每个网络层的输出结果,可以定位第二神经网络模型中精度未对齐的目标网络层。
其中,在一个实现中,该目标网络层为第二神经网络包括的多个网络层中最先出现精度未对齐的网络层。具体地,若第二神经网络模型包括的网络层与第一神经网络模型的对应网络层的输出数据之间的差别超过预设误差范围,则认定该网络层为精度未对齐的网络层。
在另一个实现中,目标网络层为第二神经网络模型中出现精度未对齐的多个网络层。例如不仅包括最先出现精度未对齐的网络层,还包括网络层的后续网络层。后续网络层的层数可以预先设定。
具体地,依次比较源框架下的第一神经网络模型中的每一个网络层的推理结果与目标框架下的第二神经网络模型中的对应的网络层的推理结果,定位第二神经网络模型中与第一神经网络模型首先精度未对齐的网络层,即目标网络层。
S304、模型精度定位装置输出目标网络层的信息。
模型精度定位装置在确定了目标网络层后,可以输出该目标网络层的信息。该目标网络层的信息包括网络层的标识、参数、输出数据、与对应网络层的输出数据之间的误差等。管理员或用户可根据该目标网络层的信息分析精度未对齐的原因。
根据本公开实施例提供的一种模型精度定位方法,根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的每个网络层的输出数据,可以定位第二神经网络模型中精度未对齐的目标网络层,实现了精度未对齐时的网络层的准确定位。
请参阅图6,为本公开实施例提供的模型精度定位方法的又一流程示意图,该方法包括以下步骤:
S401、模型精度定位装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息。
该步骤的具体实现可参考图1所示实施例的步骤S101,或者图3所示实施例的步骤S201,或者图5所示实施例的步骤S301。
S402、模型精度定位装置通过第一神经网络模型对模型输入数据的处理,建立网络拓扑图,其中,该网络拓扑图包括第一神经网络模型中的网络层的信息以及网络层的连接关系。
模型精度定位装置通过第一神经网络模型对模型输入数据的处理,建立网络拓扑图,其中,该网络拓扑图包括第一神经网络模型中的网络层的信息以及网络层的连接关系。利用神经网络模型转换工具把源框架下的第一神经网络模型的各个网络层分别转换成目标框架的格式的过程中,源框架会用该模型输入数据在第一神经网络模型上运行一遍推理,可以获得第一神经网络模型中的网络层的信息以及网络层的连接关系。上述第一神经网络模型中的网络层的信息以及网络层的连接关系构成第一神经网络模型的网络拓扑图。
S403、模型精度定位装置基于网络拓扑图以及目标框架的信息,得到第二神经网络模型,并记录第一神经网络模型处理模型输入数据的过程中每个网络层的输出数据,并基于模型转换处理,建立第一神经网络模型和第二神经网络模型中的网络层之间的映射关系。
模型精度定位装置在获得第一神经网络的网络拓扑图后,目标框架具备自己的网络结构定义和工具包,模型精度定位装置可以基于第一神经网络的网络拓扑图,利用目标框架的网络结构定义和工具包对该第一神经网络的网络拓扑图进行适应性配置,得到第二神经网络模型。
由于利用神经网络模型转换工具把源框架下的第一神经网络模型的各个网络层分别转换成目标框架的格式的过程中,源框架会用该模型输入数据在第一神经网络模型上运行一遍推理,可以获得第一神经网络模型中的网络层的信息以及网络层的连接关系。然后,模型转换装置可以基于第一神经网络的网络拓扑图,利用目标框架的网络结构定义和工具包对该第一神经网络的网络拓扑图进行适应性配置,得到第二神经网络模型。因此,进一步地,在进行模型转换处理的过程中,还可以建立第一神经网络模型和第二神经网络模型中的网络层之间的映射关系。其中,第一神经网络模型和第二神经网络模型的网络层之间的映射关系可以为一对多、多对一或者一对一,相应地,目标网络层可以为一个或多个网络层。
S404、模型精度定位装置通过第二神经网络模型对模型输入数据进行处理,得到第二神经网络模型中每个网络层的输出数据。
该步骤的具体实现可参考图1所示实施例的步骤S103,或者图3所示实施例的步骤S203。
所不同的是,本实施例中,记录的是第二神经网络模型的每个网络层的输出数据,而在图1或图3所示的实施例中,记录的是第二神经网络模型的最后的推理结果,即第二神经网络模型的最后一个网络层的输出数据。
S405、模型精度定位装置基于第一神经网络模型和第二神经网络模型中每个网络层的输出数据以及映射关系,确定第二神经网络模型中精度未对齐的目标网络层。
模型精度定位装置在获得了第一神经网络模型和第二神经网络模型中每个网络层的输出数据,以及第一神经网络模型和第二神经网络模型中的网络层之间的映射关系后,可以基于第一神经网络模型和第二神经网络模型中每个网络层的输出数据以及映射关系,确定第二神经网络模型中首先出现精度未对齐的目标网络层。
具体地,在精度定位过程中,为了准确定位首先出现精度未对齐的目标网络层,给第一神经网络模型中的每个网络层配置一个序号。该序号可以是升序的,从而在定位精度问题时,可以根据第一神经网络模型中的多个网络层的序号,依次调用第一神经网络模型中的每一个网络层。
对于调用的每一个网络层,将上一个网络层输出的推理结果输入下一个网络层进行推理,得到每一个网络层的推理结果。并且,根据每一个网络层的序号,在本地对应存储每一个网络层的推理结果。并且给每一个网络层的推理结果也进行标识。其中,一个网络层可能存在多个输入。只保存每层输出的推理结果,因为除了最初的输入数据,其它层的输入都是上一层的输出,因此一旦记录了第一神经网络模型的最初的输入和每一层的输出,相当于记录了所有层的输入和输出。如图4所示,为示例的神经网络模型转换后精度未对齐时的目标网络层的定位示意图,该神经网络模型包括多个网络层:卷积层、激活函数、归一化层、Eltwise层和池化层等。初始输入数据到神经网络模型的第一个网络层后,每个网络层的输出作为下一个网络层的输入。该神经网络模型的推理结果包括初始输入数据、输入/输出数据1~10。
把第一神经网络模型中的每个网络层单独地转换到目标框架下,得到第二神经网络模型。输入同一模型输入数据到第二神经网络模型,然后使用每层的输入运行出模型的每一层在第二神经网络模型中的推理结果,并保存在本地,保存时以每个网络层的序号为索引。当然,在目标框架下的推理同样需要在新的进程中进行。
在获得了神经网络模型的每个网络层在源框架和目标框架下的推理结果之后,可以根据每个网络层的序号,依次比较源框架下的第一神经网络模型中的每一个网络层的推理结果与目标框架下的第二神经网络模型中的对应的网络层的推理结果,定位第二神经网络模型中与第一神经网络模型首先精度未对齐的网络层,即目标网络层。
S406、模型精度定位装置输出目标网络层的信息。
该步骤的具体实现可参考图5所示实施例的步骤S305。
根据本公开实施例提供的一种模型精度定位方法,根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的每个网络层的输出数据,可以定位第二神经网络模型中精度未对齐的目标网络层,实现了精度未对齐时的网络层的准确定位。
基于上述神经网络模型的转换方法的同一构思,如图7所示,本公开实施例还提供一种模型转换装置,该装置1000包括:
获取单元11,用于获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;
转换单元12,用于对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
验证单元13,用于基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据进行处理得到的第一推理结果和第二推理结果,得到所述第二神经网络模型的精度验证结果。
在一个实现中,所述转换单元12用于通过第一进程对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
所述装置还包括:
创建单元14,用于通过所述第一进程创建第二进程;
推理单元15,用于通过所述第一进程调用所述第二进程,以使得所述第二进程执行所述第二神经网络模型对所述模型输入数据的处理,得到第二推理结果。
在又一个实现中,所述验证单元13用于若所述第一推理结果与所述第二推理结果之间的差别处于预设误差范围内,确定所述第二神经网络模型的精度验证结果为精度对齐;和/或
所述验证单元13还用于若所述第一推理结果与所述第二推理结果之间的差别超出所述预设误差范围,确定所述第二神经网络模型的精度验证结果为精度未对齐。
在又一个实现中,所述装置还包括:
定位单元16,用于响应于确定所述第二神经网络模型的精度验证结果为精度未对齐,定位所述第二神经网络模型中精度未对齐的目标网络层;
输出单元17,用于输出所述目标网络层的信息。
在又一个实现中,所述定位单元16包括:
建立单元161,用于建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;
确定单元162,用于基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的过程中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
在又一个实现中,其中,所述模型转换装置对所述第一神经网络模型再次进行模型转换处理,其中,在所述再次进行模型转换处理的过程中,获取所述第一神经网络模型中的每个网络层的输出数据,和/或建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系。
在又一个实现中,所述转换单元12用于通过所述第一神经网络模型对所述模型输入数据的处理,建立网络拓扑图,其中,所述网络拓扑图包括所述第一神经网络模型中的网络层的信息以及网络层的连接关系;以及基于所述网络拓扑图以及所述目标框架的信息,得到所述第二神经网络模型。
有关上述各单元的具体实现可参考图2或图3所示的神经网络模型的转换方法中的相关描述,在此不再赘述。
根据本公开实施例提供的一种模型转换装置,根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的推理结果,可以自动得到第二神经网络模型的精度验证结果,提高了神经网络模型转换的精度验证效率。
基于上述模型精度定位方法的同一构思,如图8所示,本公开实施例还提供一种模型精度定位装置,该装置2000包括:
获取单元21,用于获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;
转换单元22,用于对所述第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
定位单元23,用于基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层;
输出单元24,用于输出所述目标网络层的信息。
在一个实现中,所述目标网络层的信息,包括下列中的至少一项:所述目标网络层的标识、参数、输出数据、与对应网络层的输出数据之间的误差。
在又一个实现中,所述装置还包括:
第一建立单元25,用于基于所述模型转换处理,建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;
所述定位单元23,用于基于所述第一神经网络模型和所述第二神经网络模型中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
在又一个实现中,所述定位单元23包括:
调用单元231,用于基于所述映射关系依次比较所述第一神经网络模型和所述第二神经网络模型中对应网络层的输出数据;
确定单元232,用于响应于所述第一神经网络模型和所述第二神经网络模型中对应网络层的输出数据之间的差别超出预设误差范围,将所述对应网络层中属于所述第二神经网络模型中的网络层确定为所述目标网络层。
在又一个实现中,所述转换单元22包括:
第二建立单元221,用于通过所述第一神经网络模型对所述模型输入数据的处理,建立网络拓扑图,其中,所述网络拓扑图包括所述第一神经网络模型中的网络层的信息以及网络层的连接关系;
第二获取单元222,用于基于所述网络拓扑图以及所述目标框架的信息,得到所述第二神经网络模型。
有关上述各单元的具体实现可参考图5或图6所示实施例中的具体描述,在此不再赘述。
根据本公开实施例提供的一种模型精度定位装置,根据源框架下的第一神经网络模型和目标框架下的第二神经网络模型对同一模型输入数据分别得到的每个网络层的输出数据,可以定位第二神经网络模型中精度未对齐的目标网络层,实现了精度未对齐时的网络层的准确定位。
如图9所示,还提供了一种电子设备的硬件结构示意图,该电子设备用于执行上述神经网络模型的转换方法/模型精度定位方法。上述方法中的部分或全部可以通过硬件来实现,也可以通过软件或固件来实现。
可选的,该电子设备在具体实现时可以是芯片或者集成电路。
可选的,当上述实施例的神经网络模型的转换方法/模型精度定位方法中的部分或全部通过软件或固件来实现时,可以通过图9提供的一种电子设备3000来实现。如图9所示,该电子设备3000可包括:
存储器33和处理器34(装置中的处理器34可以是一个或多个,图9中以一个处理器为例),还可以包括输入装置31、输出装置32。在本实施例中,输入装置31、输出装置32、存储器33和处理器34可通过总线或其它方式连接,其中,图9中以通过总线连接为例。
其中,处理器34用于执行图1、图3、图5、图6中所执行的方法步骤。
可选的,上述神经网络模型的转换方法/模型精度定位方法的程序可以存储在存储器33中。该存储器33可以是物理上独立的单元,也可以与处理器34集成在一起。该存储器33也可以用于存储数据。
可选的,当上述实施例的神经网络模型的转换方法/模型精度定位方法中的部分或全部通过软件实现时,该电子设备也可以只包括处理器。用于存储程序的存储器位于该电子设备之外,处理器通过电路或电线与存储器连接,用于读取并执行存储器中存储的程序。
处理器可以是中央处理器(central processing unit,CPU),网络处理器(network processor,NP),或WLAN设备。
处理器还可以进一步包括硬件芯片。上述硬件芯片可以是专用集成电路(application-specific integrated circuit,ASIC),可编程逻辑器件(programmablelogic device,PLD)或其组合。上述PLD可以是复杂可编程逻辑器件(complexprogrammable logic device,CPLD),现场可编程逻辑门阵列(field-programmable gatearray,FPGA),通用阵列逻辑(generic array logic,GAL)或其任意组合。
存储器可以包括易失性存储器(volatile memory),例如随机存取存储器(random-access memory,RAM);存储器也可以包括非易失性存储器(non-volatilememory),例如快闪存储器(flash memory),硬盘(hard disk drive,HDD)或固态硬盘(solid-state drive,SSD);存储器还可以包括上述种类的存储器的组合。
本领域技术人员应明白,本公开一个或多个实施例可提供为方法、系统或计算机程序产品。因此,本公开一个或多个实施例可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本公开一个或多个实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本公开实施例还提供一种计算机可读存储介质,该存储介质上可以存储有计算机程序,所述程序被处理器执行时实现本公开任一实施例描述的神经网络模型的转换方法的步骤,和/或,实现本公开任一实施例描述的模型精度定位方法的步骤。
本公开中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于上述装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本公开特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的行为或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
本公开中描述的主题及功能操作的实施例可以在以下中实现:数字电子电路、有形体现的计算机软件或固件、包括本公开中公开的结构及其结构性等同物的计算机硬件、或者它们中的一个或多个的组合。本公开中描述的主题的实施例可以实现为一个或多个计算机程序,即编码在有形非暂时性程序载体上以被数据处理装置执行或指示数据处理装置的操作的计算机程序指令中的一个或多个模块。可替代地或附加地,程序指令可以被编码在人工生成的传播信号上,例如机器生成的电、光或电磁信号,该信号被生成以将信息编码并传输到合适的接收机装置以由数据处理装置执行。计算机存储介质可以是机器可读存储设备、机器可读存储基板、随机或串行存取存储器设备、或它们中的一个或多个的组合。
本公开中描述的处理及逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程计算机执行,以通过根据输入数据进行操作并生成输出来执行相应的功能。所述处理及逻辑流程还可以由专用逻辑电路—例如现场可编程门阵列(FPGA)或专用集成电路(ASIC)来执行,并且装置也可以实现为专用逻辑电路。
适合用于执行计算机程序的计算机包括,例如通用和/或专用微处理器,或任何其他类型的中央处理单元。通常,中央处理单元将从只读存储器和/或随机存取存储器接收指令和数据。计算机的基本组件包括用于实施或执行指令的中央处理单元以及用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备,例如磁盘、磁光盘或光盘等,或者计算机将可操作地与此大容量存储设备耦接以从其接收数据或向其传送数据,抑或两种情况兼而有之。然而,计算机不是必须具有这样的设备。此外,计算机可以嵌入在另一设备中,例如移动电话、个人数字助理(PDA)、移动音频或视频播放器、游戏操纵台、全球定位系统(GPS)接收机、或例如通用串行总线(USB)闪存驱动器的便携式存储设备,仅举几例。
适合于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、媒介和存储器设备,例如包括半导体存储器设备(例如EPROM、EEPROM和闪存设备)、磁盘(例如内部硬盘或可移动盘)、磁光盘以及CD ROM和DVD-ROM盘。处理器和存储器可由专用逻辑电路补充或并入专用逻辑电路中。
虽然本公开包含许多具体实施细节,但是这些不应被解释为限制任何发明的范围或所要求保护的范围,而是主要用于描述特定发明的具体实施例的特征。本公开内在多个实施例中描述的某些特征也可以在单个实施例中被组合实施。另一方面,在单个实施例中描述的各种特征也可以在多个实施例中分开实施或以任何合适的子组合来实施。此外,虽然特征可以如上所述在某些组合中起作用并且甚至最初如此要求保护,但是来自所要求保护的组合中的一个或多个特征在一些情况下可以从该组合中去除,并且所要求保护的组合可以指向子组合或子组合的变型。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应被理解为要求这些操作以所示的特定顺序执行或顺次执行、或者要求所有例示的操作被执行,以实现期望的结果。在某些情况下,多任务和并行处理可能是有利的。此外,上述实施例中的各种系统模块和组件的分离不应被理解为在所有实施例中均需要这样的分离,并且应当理解,所描述的程序组件和系统通常可以一起集成在单个软件产品中,或者封装成多个软件产品。
由此,主题的特定实施例已被描述。其他实施例在所附权利要求书的范围以内。在某些情况下,权利要求书中记载的动作可以以不同的顺序执行并且仍实现期望的结果。此外,附图中描绘的处理并非必需所示的特定顺序或顺次顺序,以实现期望的结果。在某些实现中,多任务和并行处理可能是有利的。
以上所述仅为本公开一个或多个实施例的较佳实施例而已,并不用以限制本公开一个或多个实施例,凡在本公开一个或多个实施例的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开一个或多个实施例保护的范围之内。
Claims (20)
1.一种神经网络模型的转换方法,其特征在于,所述方法包括:
模型转换装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;
所述模型转换装置对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
所述模型转换装置基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据进行处理得到的第一推理结果和第二推理结果,得到所述第二神经网络模型的精度验证结果。
2.根据权利要求1所述的方法,其特征在于,所述对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型,包括:
通过第一进程对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
所述方法还包括:
通过所述第一进程创建第二进程;
通过所述第一进程调用所述第二进程,以在所述第二进程中通过所述第二神经网络模型对所述模型输入数据进行处理,得到第二推理结果。
3.根据权利要求1或2所述的方法,其特征在于,所述模型转换装置基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据进行处理得到的第一推理结果和第二推理结果,得到所述第二神经网络模型的精度验证结果,包括:
若所述第一推理结果与所述第二推理结果之间的差别处于预设误差范围内,确定所述第二神经网络模型的精度验证结果为精度对齐;和/或
若所述第一推理结果与所述第二推理结果之间的差别超出所述预设误差范围,确定所述第二神经网络模型的精度验证结果为精度未对齐。
4.根据权利要求1至3中任一项所述的方法,其特征在于,所述方法还包括:
响应于确定所述第二神经网络模型的精度验证结果为精度未对齐,所述模型转换装置定位所述第二神经网络模型中精度未对齐的目标网络层;
所述模型转换装置输出所述目标网络层的信息。
5.根据权利要求4所述的方法,其特征在于,所述定位所述第二神经网络模型中精度未对齐的目标网络层,包括:
所述模型转换装置建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;
所述模型转换装置基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的过程中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
6.根据权利要求5所述的方法,其特征在于,其中,所述模型转换装置对所述第一神经网络模型再次进行模型转换处理,其中,在所述再次进行模型转换处理的过程中,获取所述第一神经网络模型中的每个网络层的输出数据,和/或建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述模型转换装置对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型,包括:
所述模型转换装置通过所述第一神经网络模型对所述模型输入数据的处理,建立网络拓扑图,其中,所述网络拓扑图包括所述第一神经网络模型中的网络层的信息以及网络层的连接关系;
所述模型转换装置基于所述网络拓扑图以及所述目标框架的信息,得到所述第二神经网络模型。
8.一种模型精度定位方法,其特征在于,包括:
模型精度定位装置获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;
所述模型精度定位装置对所述第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层;
所述模型精度定位装置输出所述目标网络层的信息。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
所述模型精度定位装置基于所述模型转换处理,建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;
所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层,包括:
所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
10.根据权利要求9所述的方法,其特征在于,所述模型精度定位装置基于所述第一神经网络模型和所述第二神经网络模型中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层,包括:
所述模型精度定位装置基于所述映射关系依次比较所述第一神经网络模型和所述第二神经网络模型中对应网络层的输出数据;
响应于所述第一神经网络模型和所述第二神经网络模型中对应网络层的输出数据之间的差别超出预设误差范围,将所述对应网络层中属于所述第二神经网络模型中的网络层确定为所述目标网络层。
11.根据权利要求8~10中任一项所述的方法,其特征在于,所述模型精度定位装置对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型,包括:
所述模型精度定位装置通过所述第一神经网络模型对所述模型输入数据的处理,建立网络拓扑图,其中,所述网络拓扑图包括所述第一神经网络模型中的网络层的信息以及网络层的连接关系;
所述模型精度定位装置基于所述网络拓扑图以及所述目标框架的信息,得到所述第二神经网络模型。
12.一种模型转换装置,其特征在于,所述装置包括:
获取单元,用于获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;
转换单元,用于对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
验证单元,用于基于所述第一神经网络模型和所述第二神经网络模型分别对所述模型输入数据进行处理得到的第一推理结果和第二推理结果,得到所述第二神经网络模型的精度验证结果。
13.根据权利要求12所述的装置,其特征在于,所述转换单元用于通过第一进程对所述源框架下的第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
所述装置还包括:
创建单元,用于通过所述第一进程创建第二进程;
推理单元,用于通过所述第一进程调用所述第二进程,以使得所述第二进程执行所述第二神经网络模型对所述模型输入数据的处理,得到第二推理结果。
14.根据权利要求12或13所述的装置,其特征在于,所述验证单元用于若所述第一推理结果与所述第二推理结果之间的差别处于预设误差范围内,确定所述第二神经网络模型的精度验证结果为精度对齐;和/或
所述验证单元还用于若所述第一推理结果与所述第二推理结果之间的差别超出所述预设误差范围,确定所述第二神经网络模型的精度验证结果为精度未对齐。
15.根据权利要求12至14中任一项所述的装置,其特征在于,所述装置还包括:
定位单元,用于响应于确定所述第二神经网络模型的精度验证结果为精度未对齐,定位所述第二神经网络模型中精度未对齐的目标网络层;
输出单元,用于输出所述目标网络层的信息。
16.根据权利要求15所述的装置,其特征在于,所述定位单元包括:
建立单元,用于建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系;
确定单元,用于基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的过程中每个网络层的输出数据以及所述映射关系,确定所述第二神经网络模型中精度未对齐的目标网络层。
17.根据权利要求16所述的装置,其特征在于,其中,所述模型转换装置对所述第一神经网络模型再次进行模型转换处理,其中,在所述再次进行模型转换处理的过程中,获取所述第一神经网络模型中的每个网络层的输出数据,和/或建立所述第一神经网络模型和所述第二神经网络模型中的网络层之间的映射关系。
18.一种模型精度定位装置,其特征在于,包括:
获取单元,用于获取源框架下的第一神经网络模型、模型输入数据以及目标框架的信息;
转换单元,用于对所述第一神经网络模型进行模型转换处理,得到所述目标框架下的第二神经网络模型;
定位单元,用于基于所述第一神经网络模型和所述第二神经网络模型分别处理所述模型输入数据的每个网络层的输出数据,定位所述第二神经网络模型中精度未对齐的目标网络层;
输出单元,用于输出所述目标网络层的信息。
19.一种电子设备,其特征在于,所述装置包括存储器和处理器,其中,所述存储器中存储程序指令,且所述处理器用于调用所述存储器中存储的程序指令,执行如权利要求1~11中任一项所述的方法。
20.一种计算机存储介质,其特征在于,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行如权利要求1~11中任一项所述的方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010129010.0A CN113326913A (zh) | 2020-02-28 | 2020-02-28 | 神经网络模型的转换方法、模型精度定位方法及装置 |
SG11202113120YA SG11202113120YA (en) | 2020-02-28 | 2021-02-18 | Methods and apparatuses for transforming neural network model, and methods and apparatuses for positioning model precision |
PCT/CN2021/076754 WO2021169844A1 (zh) | 2020-02-28 | 2021-02-18 | 神经网络模型的转换方法、模型精度定位方法及装置 |
KR1020217041100A KR20220008336A (ko) | 2020-02-28 | 2021-02-18 | 뉴럴 네트워크 모델의 변환 방법, 모델 정확도 확립 방법 및 장치 |
JP2021570957A JP2022540300A (ja) | 2020-02-28 | 2021-02-18 | ニューラルネットワークモデル変換方法、モデル精度位置決め方法、および装置 |
TW110105732A TW202133054A (zh) | 2020-02-28 | 2021-02-19 | 神經網路模型的轉換方法、模型精度定位方法及裝置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010129010.0A CN113326913A (zh) | 2020-02-28 | 2020-02-28 | 神经网络模型的转换方法、模型精度定位方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113326913A true CN113326913A (zh) | 2021-08-31 |
Family
ID=77412746
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010129010.0A Pending CN113326913A (zh) | 2020-02-28 | 2020-02-28 | 神经网络模型的转换方法、模型精度定位方法及装置 |
Country Status (6)
Country | Link |
---|---|
JP (1) | JP2022540300A (zh) |
KR (1) | KR20220008336A (zh) |
CN (1) | CN113326913A (zh) |
SG (1) | SG11202113120YA (zh) |
TW (1) | TW202133054A (zh) |
WO (1) | WO2021169844A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115187821A (zh) * | 2022-07-05 | 2022-10-14 | 阿波罗智能技术(北京)有限公司 | 验证模型转换前后正确性的方法、相关装置及程序产品 |
CN117056238A (zh) * | 2023-10-11 | 2023-11-14 | 深圳鲲云信息科技有限公司 | 验证部署框架下模型转换正确性的方法及计算设备 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115878096B (zh) * | 2023-01-31 | 2023-05-23 | 北京面壁智能科技有限责任公司 | 深度学习模型统一应用方法、装置、服务器及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229651A (zh) * | 2017-11-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络模型迁移方法和系统、电子设备、程序和介质 |
CN108229646A (zh) * | 2017-08-08 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络模型压缩方法、装置、存储介质和电子设备 |
US20190156203A1 (en) * | 2017-11-17 | 2019-05-23 | Samsung Electronics Co., Ltd. | Neural network training method and device |
CN109993300A (zh) * | 2017-12-29 | 2019-07-09 | 华为技术有限公司 | 一种神经网络模型的训练方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229652B (zh) * | 2017-11-28 | 2021-05-04 | 北京市商汤科技开发有限公司 | 神经网络模型迁移方法和系统、电子设备、程序和介质 |
JP2020004178A (ja) * | 2018-06-29 | 2020-01-09 | ルネサスエレクトロニクス株式会社 | 学習モデルの評価方法、学習方法、装置、及びプログラム |
CN110348566B (zh) * | 2019-07-15 | 2023-01-06 | 上海点积实业有限公司 | 一种生成神经网络训练用数字信号的方法和系统 |
-
2020
- 2020-02-28 CN CN202010129010.0A patent/CN113326913A/zh active Pending
-
2021
- 2021-02-18 WO PCT/CN2021/076754 patent/WO2021169844A1/zh active Application Filing
- 2021-02-18 KR KR1020217041100A patent/KR20220008336A/ko not_active Application Discontinuation
- 2021-02-18 SG SG11202113120YA patent/SG11202113120YA/en unknown
- 2021-02-18 JP JP2021570957A patent/JP2022540300A/ja not_active Withdrawn
- 2021-02-19 TW TW110105732A patent/TW202133054A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108229646A (zh) * | 2017-08-08 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络模型压缩方法、装置、存储介质和电子设备 |
US20190156203A1 (en) * | 2017-11-17 | 2019-05-23 | Samsung Electronics Co., Ltd. | Neural network training method and device |
CN108229651A (zh) * | 2017-11-28 | 2018-06-29 | 北京市商汤科技开发有限公司 | 神经网络模型迁移方法和系统、电子设备、程序和介质 |
CN109993300A (zh) * | 2017-12-29 | 2019-07-09 | 华为技术有限公司 | 一种神经网络模型的训练方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115187821A (zh) * | 2022-07-05 | 2022-10-14 | 阿波罗智能技术(北京)有限公司 | 验证模型转换前后正确性的方法、相关装置及程序产品 |
CN115187821B (zh) * | 2022-07-05 | 2024-03-22 | 阿波罗智能技术(北京)有限公司 | 验证模型转换前后正确性的方法、相关装置及程序产品 |
CN117056238A (zh) * | 2023-10-11 | 2023-11-14 | 深圳鲲云信息科技有限公司 | 验证部署框架下模型转换正确性的方法及计算设备 |
CN117056238B (zh) * | 2023-10-11 | 2024-01-30 | 深圳鲲云信息科技有限公司 | 验证部署框架下模型转换正确性的方法及计算设备 |
Also Published As
Publication number | Publication date |
---|---|
TW202133054A (zh) | 2021-09-01 |
KR20220008336A (ko) | 2022-01-20 |
JP2022540300A (ja) | 2022-09-15 |
WO2021169844A1 (zh) | 2021-09-02 |
SG11202113120YA (en) | 2021-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113326913A (zh) | 神经网络模型的转换方法、模型精度定位方法及装置 | |
JP6828001B2 (ja) | 音声ウェイクアップ方法及び装置 | |
US20190370685A1 (en) | Method and apparatus for generating model, method and apparatus for recognizing information | |
CN108351707B (zh) | 人机交互方法、装置、终端设备及计算机可读存储介质 | |
WO2018149137A1 (zh) | 无线保真Wi-Fi连接方法及相关产品 | |
CN110955715A (zh) | Erp系统和目标平台的数据转换方法、装置以及电子设备 | |
CN111178512A (zh) | 器件运行神经网络的测试方法及装置 | |
CN114781654A (zh) | 联邦迁移学习方法、装置、计算机设备及介质 | |
CN117892665B (zh) | 基于电路系统级模型的建模仿真方法、装置、介质及设备 | |
CN107783867B (zh) | 手势测试方法、装置、计算机设备和存储介质 | |
CN113255769A (zh) | 化合物属性预测模型训练方法和化合物属性预测方法 | |
CN116933702A (zh) | 一种验证方法、装置、电子设备及可读存储介质 | |
US20230259715A1 (en) | Method, device, and system for tracking dialogue state | |
CN112036697A (zh) | 一种任务分配的方法、装置、可读存储介质和电子设备 | |
CN115187821B (zh) | 验证模型转换前后正确性的方法、相关装置及程序产品 | |
CN114611698A (zh) | 模型的部署方法、装置、电子设备及存储介质 | |
CN113272813B (zh) | 定制数据流硬件模拟仿真方法、装置、设备及存储介质 | |
US9477446B1 (en) | Bottom-up approach for integrating models for software components using contracts | |
CN114036551A (zh) | 隐私数据的数据处理方法、装置、计算机设备及介质 | |
CN113093702A (zh) | 故障数据的预测方法和装置、电子设备和存储介质 | |
CN112764923A (zh) | 计算资源分配方法、装置、计算机设备及存储介质 | |
CN111046933A (zh) | 图像分类方法、装置、存储介质及电子设备 | |
CN110569031B (zh) | 编程实现方法和装置 | |
US20240272999A1 (en) | System, method, and computer-readable storage medium for system-on-chip verification | |
CN117348577B (zh) | 一种生产工艺仿真检测方法、装置、设备以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40049328 Country of ref document: HK |
|
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210831 |