CN110795165A - 一种神经网络模型数据的加载方法及相关装置 - Google Patents
一种神经网络模型数据的加载方法及相关装置 Download PDFInfo
- Publication number
- CN110795165A CN110795165A CN201910968810.9A CN201910968810A CN110795165A CN 110795165 A CN110795165 A CN 110795165A CN 201910968810 A CN201910968810 A CN 201910968810A CN 110795165 A CN110795165 A CN 110795165A
- Authority
- CN
- China
- Prior art keywords
- information
- frame
- neural network
- loading
- configuration file
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000011068 loading method Methods 0.000 title claims abstract description 70
- 238000003062 neural network model Methods 0.000 title claims abstract description 57
- 238000012545 processing Methods 0.000 claims abstract description 48
- 238000013528 artificial neural network Methods 0.000 claims abstract description 35
- 238000006243 chemical reaction Methods 0.000 claims abstract description 30
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 230000006978 adaptation Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 230000003044 adaptive effect Effects 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 3
- 238000013075 data extraction Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 abstract description 23
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 238000011161 development Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 7
- 238000010801 machine learning Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44521—Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
Landscapes
- Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Neurology (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Stored Programmes (AREA)
Abstract
本申请公开了一种神经网络模型数据的加载方法,包括:将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件;根据所述配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。通过先对神经网络模型文件进行框架信息的提取处理,然后根据通用框架对框架信息进行配置信息转换处理,得到配置文件,最后加载至对应硬件中,实现自动生成配置文件,提高加载效率。本申请还公开了一种神经网络模型数据的加载装置、计算机设备以及计算机可读存储介质,具有以上有益效果。
Description
技术领域
本申请涉及计算机技术领域,特别涉及一种神经网络模型数据的加载方法、加载装置、计算机设备以及计算机可读存储介质。
背景技术
随着信息技术的不断发展,对数据处理的速度要求越来越高。因此,就出现了采用FPGA(Field Programming Gate Array现场可编辑门阵列)对数据进行处理,由于FPGA是通过硬件电路进行计算,可以加快数据处理的速度。尤其,在机器学习技术领域中,由于机器学习的过程需要巨大的计算量以及较高的数据计算效率,目前常常使用FPGA对机器学习的过程进行加速,以便提高机器学习的效率。其中,必不可少的步骤就是对FPGA进行开发,将机器学习模型文件编译加载至FPGA中。
现有技术中,传统的FPGA开发,需要开发人员具备一定的硬件编程语言的基础,如Verilog(硬件描述语言),VHDL(Very-High-Speed Integrated Circuit HardwareDescription Language超高速集成电路硬件描述语言)等,并且往往存在编程难度较大,开发周期长,代码编写效率低等问题,尤其对于大型硬件网络开发,会导致FPGA应用的效率直线下降,不利于快速开发。
在另一个现有技术中,采用OpenCL开放式编程语言进行FPGA的开发。由于OpenCL是以C和C++编写,降低了FPGA的开发难度,并且可以运行在包括FPGA在内的任何类型的硬件微处理器中。有效的降低了编程难度,提高了开发效率。但是,在现有技术中当将模型文件加载至FPGA中时,还需要技术人员编写配置文件以便将模型文件加载至FPGA中。当将FPGA应用在神经网络的边缘计算中时,需要开发大量的FPGA芯片用以实现边缘计算。但是,人工编写配置文件的过程仍然会拖慢FPGA芯片的开发效率,降低应用的速度,无法保证快速实现边缘计算。
因此,如何提高将神经网络加载至FPGA此类硬件中的效率是本领域技术人员关注的重点问题。
发明内容
本申请的目的是提供一种神经网络模型数据的加载方法、加载装置、计算机设备以及计算机可读存储介质,通过先对神经网络模型文件进行框架信息的提取处理,然后根据通用框架对框架信息进行配置信息转换处理,得到配置文件,最后加载至对应硬件中,实现自动生成配置文件,提高加载效率。
为解决上述技术问题,本申请提供一种神经网络模型数据的加载方法,包括:
将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;
根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件;
根据所述配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
可选的,将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息,包括:
通过预设路径获取到所述神经网络模型文件;
对所述神经网络模型文件进行网络框架信息提取处理,得到框架数据;
将所述框架数据存入预设格式的结构体中,得到所述框架信息。
可选的,根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件,包括:
根据所述框架信息对所述通用框架进行适配处理,得到适配信息;
将所述框架信息和所述适配信息进行编译格式转换处理,得到所述配置文件。
可选的,所述配置文件包括:卷积网络总体信息、基本结构信息、卷积网络细节信息以及周期数信息。
本申请还提供一种神经网络模型数据的加载装置,包括:
模型文件解析模块,用于将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;
框架信息转换模块,用于根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件;
配置文件加载模块,用于根据所述配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
可选的,所述模型文件解析模块,包括:
模型文件获取单元,用于通过预设路径获取到所述神经网络模型文件;
框架数据提取单元,用于对所述神经网络模型文件进行网络框架信息提取处理,得到框架数据;
框架信息获取单元,用于将所述框架数据存入预设格式的结构体中,得到所述框架信息。
可选的,所述框架信息转换模块,包括:
适配信息获取单元,用于根据所述框架信息对所述通用框架进行适配处理,得到适配信息;
编译格式转换单元,用于将所述框架信息和所述适配信息进行编译格式转换处理,得到所述配置文件。
可选的,所述配置文件包括:卷积网络总体信息、基本结构信息、卷积网络细节信息以及周期数信息。
本申请还提供一种计算机设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如上所述的加载方法的步骤。
本申请还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的加载方法的步骤。
本申请所提供的一种神经网络模型数据的加载方法,包括:将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件;根据所述配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
通过先从神经网络模型文件中提取出用于描述神经网络整体结构的框架信息,然后再根据通用框架对框架信息针对性的生成对应的配置文件,而不是通过技术人员人工生成对应的配置文件,最后根据该配置文件和OpenCL框架进行加载处理,也就是将神经网络加载至对应的硬件中,以便开发出对应的神经网络硬件,由于避免采用人工的方式获取到配置文件,使用自动生成的方式,提高了配置文件的获取效率,同时也提高了将神经网络加载至FPGA此类硬件中的效率。
本申请还提供一种神经网络模型数据的加载装置、计算机设备以及计算机可读存储介质,具有以上有益效果,在此不作赘述。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请实施例所提供的一种神经网络模型数据的加载方法的流程图;
图2为本申请实施例所提供的一种神经网络模型数据的加载装置的结构示意图。
具体实施方式
本申请的核心是提供一种神经网络模型数据的加载方法、加载装置、计算机设备以及计算机可读存储介质,通过先对神经网络模型文件进行框架信息的提取处理,然后根据通用框架对框架信息进行配置信息转换处理,得到配置文件,最后加载至对应硬件中,实现自动生成配置文件,提高加载效率。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
现有技术中,传统的FPGA开发,需要开发人员具备一定的硬件编程语言的基础,如Verilog(硬件描述语言),VHDL(Very-High-Speed Integrated Circuit HardwareDescription Language超高速集成电路硬件描述语言)等,并且往往存在编程难度较大,开发周期长,代码编写效率低等问题,尤其对于大型硬件网络开发,会导致FPGA应用的效率直线下降,不利于快速开发。
在另一个现有技术中,采用OpenCL开放式编程语言进行FPGA的开发。由于OpenCL是以C和C++编写,降低了FPGA的开发难度,并且可以运行在包括FPGA在内的任何类型的硬件微处理器中。有效的降低了编程难度,提高了开发效率。但是,在现有技术中当将模型文件加载至FPGA中时,还需要技术人员编写配置文件以便将模型文件加载至FPGA中。当将FPGA应用在神经网络的边缘计算中时,需要开发大量的FPGA芯片用以实现边缘计算。但是,人工编写配置文件的过程仍然会拖慢FPGA芯片的开发效率,降低应用的速度,无法保证快速实现边缘计算。
因此,本申请提供了一种神经网络模型数据的加载方法,通过先从神经网络模型文件中提取出用于描述神经网络整体结构的框架信息,然后再根据通用框架对框架信息针对性的生成对应的配置文件,而不是通过技术人员人工生成对应的配置文件,最后根据该配置文件和OpenCL框架进行加载处理,也就是将神经网络加载至对应的硬件中,以便开发出对应的神经网络硬件,由于避免采用人工的方式获取到配置文件,使用自动生成的方式,提高了配置文件的获取效率,同时也提高了将神经网络加载至FPGA此类硬件中的效率。
请参考图1,图1为本申请实施例所提供的一种神经网络模型数据的加载方法的流程图。
本实施例中,该加载方法可以包括:
S101,将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;
本步骤旨在从获取到的神经网络模型文件中提取出该神经网络模型的框架信息。
其中,神经网络模型文件指的是采用不同神经网络框架编写出的模型文件。例如,采用基于python语言的机器学习框架(PyTorch)生成的模型文件,那么就可以从该模型文件中提取表示该神经网络模型的框架信息。
其中,框架信息可以包括该神经网络的输入输出通道、内核大小信息以及卷积块ID信息。可见,该框架信息表示了该神经网络的基本框架信息。也就是说,神经网络的基本框架是由该网络的输入输出通道,内核大小信息以及每个卷积块ID信息决定。
此外,本步骤中的框架信息还可以包括其他信息数据,也可以根据不同模型文件的类型确定不同的框架信息的类型,在此不做具体限定。
可选的,本步骤可以包括:
通过预设路径获取到神经网络模型文件;
对神经网络模型文件进行网络框架信息提取处理,得到框架数据;
将框架数据存入预设格式的结构体中,得到框架信息。
可见,本可选方案主要是对如何获取到框架信息做进一步说明。本可选方案中所采用的神经网络模型文件可以是预设格式的模型文件,因此,当获取到该文件时就可以通过预设的格式从中获取出标识网络框架的框架信息。
S102,根据通用框架对框架信息进行配置信息转换处理,得到配置文件;
在S101的基础上,本步骤旨在将获取到的框架信息进行配置信息转换处理,得到配置文件。
其中,配置文件是用于将神经网络加载至硬件中使用的文件。主要作用是对硬件中的神经网络进行配置,当配置完成后该神经网络才可以达到预期的内容。配置文件的具体内容可以根据加载方式的不同而不同,也就是可以根据实际的加载过程选择不同的配置内容。
举例来说,本实施例中可以通过OpenCL框架进行加载,那么该配置文件包括:卷积网络总体信息、基本结构信息、卷积网络细节信息以及周期数信息。
可选的,本步骤中可以包括:
根据框架信息对通用框架进行适配处理,得到适配信息;
将框架信息和适配信息进行编译格式转换处理,得到配置文件。
可见,本实施例中主要是对如何获取到配置文件做进一步说明。本可选方案中主要是先根据框架信息对通用的框架进行适配处理,得到适配信息,最后再进行编译格式转换,得到配置文件。其中,适配处理是在框架信息的基础上添加细节信息,以便将预期神经网络模型可以应用在通用框架中。其中,适配处理的方式可以采用现有技术提供的任意一种适配方法,在此不作赘述。
S103,根据配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
在S102的基础上,本步骤旨在根据上一步骤生成完成的配置文件和OpenCL框架文件进行神经网络的加载处理,以便将该神经网络加载至对应的硬件中。
其中,进行加载的方法可以采用现有技术提供的任意一种加载方法,在此不作赘述。
综上所述,本实施例通过先从神经网络模型文件中提取出用于描述神经网络整体结构的框架信息,然后再根据通用框架对框架信息针对性的生成对应的配置文件,而不是通过技术人员人工生成对应的配置文件,最后根据该配置文件和OpenCL框架进行加载处理,也就是将神经网络加载至对应的硬件中,以便开发出对应的神经网络硬件,由于避免采用人工的方式获取到配置文件,使用自动生成的方式,提高了配置文件的获取效率,同时也提高了将神经网络加载至FPGA此类硬件中的效率。
以下通过另一个具体的实施例,对本申请提供的一种神经网络模型数据的加载方法做进一步说明。
本实施例中,可以将该方法分为模型框架文件导入和OpenCL配置文件生成两部分。
其中,其中可导入的模型框架支持包含Pytorch模型文件在内的各种模型文件。
首先,在模型框架文件读入后,会将网络的输入输出通道,内核大小信息,卷积块ID等信息存入pstFpgaLayerInfo结构体中,也就是获取到框架信息。
然后转换出配置文件。具体的,读入包含框架信息的结构体变量,转化后生成的配置文件包含以下四部分:
1)卷积网络总体信息,如卷积块数目,网络层数,网络最大长宽高等;
2)基本结构信息,如使能信息,包括BachNorm操作使能,pool层使能等操作;
3)细节信息,包括各个卷积核的大小,池化层的种类,存储buffer的偏移信息等;
4)周期数计算,计算出神经网络各部分相关操作的所用的周期数,如权重信息预加载所用的周期数,卷积操作所用周期数,池化操作所用周期数等。
最后,将配置文件配合OpenCL架构,可将配置文件信息方便的加载到FPGA边缘计算Edge端,也就是加载出可以进行边缘计算的神经网络硬件。
本实施例通过先从神经网络模型文件中提取出用于描述神经网络整体结构的框架信息,然后再根据通用框架对框架信息针对性的生成对应的配置文件,而不是通过技术人员人工生成对应的配置文件,最后根据该配置文件和OpenCL框架进行加载处理,也就是将神经网络加载至对应的硬件中,以便开发出对应的神经网络硬件,由于避免采用人工的方式获取到配置文件,使用自动生成的方式,提高了配置文件的获取效率,同时也提高了将神经网络加载至FPGA此类硬件中的效率。
下面对本申请实施例提供的一种神经网络模型数据的加载装置进行介绍,下文描述的一种神经网络模型数据的加载装置与上文描述的一种神经网络硬件的加载方法可相互对应参照。
请参考图2,图2为本申请实施例所提供的一种神经网络模型数据的加载装置的结构示意图。
本实施例中,该装置可以包括:
模型文件解析模块100,用于将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;
框架信息转换模块200,用于根据通用框架对框架信息进行配置信息转换处理,得到配置文件;
配置文件加载模块300,用于根据配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
可选的,该模型文件解析模块100,可以包括:
模型文件获取单元,用于通过预设路径获取到神经网络模型文件;
框架数据提取单元,用于对神经网络模型文件进行网络框架信息提取处理,得到框架数据;
框架信息获取单元,用于将框架数据存入预设格式的结构体中,得到框架信息。
可选的,该框架信息转换模块200,可以包括:
适配信息获取单元,用于根据框架信息对通用框架进行适配处理,得到适配信息;
编译格式转换单元,用于将框架信息和适配信息进行编译格式转换处理,得到配置文件。
可选的,该配置文件可以包括:卷积网络总体信息、基本结构信息、卷积网络细节信息以及周期数信息。
本申请实施例还提供一种计算机设备,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如以上实施例所述的加载方法的步骤。
本申请实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如以上实施例所述的加载方法的步骤。
该计算机可读存储介质可以包括:U盘、移动硬盘、只读存储器(Read-OnlyMemory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
结合本文中所公开的实施例描述的方法或算法的步骤可以直接用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。
以上对本申请所提供的一种神经网络模型数据的加载方法、加载装置、计算机设备以及计算机可读存储介质进行了详细介绍。本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
Claims (10)
1.一种神经网络模型数据的加载方法,其特征在于,包括:
将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;
根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件;
根据所述配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
2.根据权利要求1所述的加载方法,其特征在于,将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息,包括:
通过预设路径获取到所述神经网络模型文件;
对所述神经网络模型文件进行网络框架信息提取处理,得到框架数据;
将所述框架数据存入预设格式的结构体中,得到所述框架信息。
3.根据权利要求1所述的加载方法,其特征在于,根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件,包括:
根据所述框架信息对所述通用框架进行适配处理,得到适配信息;
将所述框架信息和所述适配信息进行编译格式转换处理,得到所述配置文件。
4.根据权利要求1所述的加载方法,其特征在于,所述配置文件包括:卷积网络总体信息、基本结构信息、卷积网络细节信息以及周期数信息。
5.一种神经网络模型数据的加载装置,其特征在于,包括:
模型文件解析模块,用于将接收到的神经网络模型文件进行网络框架信息提取处理,得到框架信息;
框架信息转换模块,用于根据通用框架对所述框架信息进行配置信息转换处理,得到配置文件;
配置文件加载模块,用于根据所述配置文件和OpenCL框架进行加载处理,以便将神经网络加载至对应的硬件中。
6.根据权利要求5所述的加载装置,其特征在于,所述模型文件解析模块,包括:
模型文件获取单元,用于通过预设路径获取到所述神经网络模型文件;
框架数据提取单元,用于对所述神经网络模型文件进行网络框架信息提取处理,得到框架数据;
框架信息获取单元,用于将所述框架数据存入预设格式的结构体中,得到所述框架信息。
7.根据权利要求5所述的加载装置,其特征在于,所述框架信息转换模块,包括:
适配信息获取单元,用于根据所述框架信息对所述通用框架进行适配处理,得到适配信息;
编译格式转换单元,用于将所述框架信息和所述适配信息进行编译格式转换处理,得到所述配置文件。
8.根据权利要求5所述的加载装置,其特征在于,所述配置文件包括:卷积网络总体信息、基本结构信息、卷积网络细节信息以及周期数信息。
9.一种计算机设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序时实现如权利要求1至4任一项所述的加载方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的加载方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910968810.9A CN110795165A (zh) | 2019-10-12 | 2019-10-12 | 一种神经网络模型数据的加载方法及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910968810.9A CN110795165A (zh) | 2019-10-12 | 2019-10-12 | 一种神经网络模型数据的加载方法及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110795165A true CN110795165A (zh) | 2020-02-14 |
Family
ID=69439069
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910968810.9A Withdrawn CN110795165A (zh) | 2019-10-12 | 2019-10-12 | 一种神经网络模型数据的加载方法及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110795165A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797969A (zh) * | 2020-06-23 | 2020-10-20 | 浙江大华技术股份有限公司 | 神经网络模型的转换方法及相关装置 |
CN111857723A (zh) * | 2020-06-29 | 2020-10-30 | 浪潮电子信息产业股份有限公司 | 一种参数编译方法、装置和计算机可读存储介质 |
CN114004352A (zh) * | 2021-12-31 | 2022-02-01 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
-
2019
- 2019-10-12 CN CN201910968810.9A patent/CN110795165A/zh not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111797969A (zh) * | 2020-06-23 | 2020-10-20 | 浙江大华技术股份有限公司 | 神经网络模型的转换方法及相关装置 |
CN111857723A (zh) * | 2020-06-29 | 2020-10-30 | 浪潮电子信息产业股份有限公司 | 一种参数编译方法、装置和计算机可读存储介质 |
CN111857723B (zh) * | 2020-06-29 | 2022-06-17 | 浪潮电子信息产业股份有限公司 | 一种参数编译方法、装置和计算机可读存储介质 |
CN114004352A (zh) * | 2021-12-31 | 2022-02-01 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107170453B (zh) | 基于人工智能的跨语种语音转录方法、设备及可读介质 | |
CN110795165A (zh) | 一种神经网络模型数据的加载方法及相关装置 | |
CN109871326A (zh) | 一种脚本录制的方法和装置 | |
CN103631783B (zh) | 一种前端页面的生成方法及系统 | |
JP2019512126A (ja) | 機械学習システムをトレーニングする方法及びシステム | |
CN111240640A (zh) | 基于硬件环境的数据量化方法、装置及可读存储介质 | |
CN109828759A (zh) | 代码编译方法、装置、计算机装置及存储介质 | |
CN114707444A (zh) | 编译验证系统的方法、电子设备及存储介质 | |
CN110569230A (zh) | 数据库设计模型与设计文档互相转换方法、系统及设备 | |
KR101826828B1 (ko) | 로그 데이터 관리 시스템 및 방법 | |
CN112114817B (zh) | 基于cobol语言的数据字典字段信息获取方法及装置 | |
CN111158665A (zh) | 代码生成方法及装置、电子设备和存储介质 | |
CN110502439B (zh) | 调试方法、装置、电子设备以及存储介质 | |
CN109460236B (zh) | 程序版本构建和检查方法及系统 | |
CN116841898A (zh) | 一种测试用例和测试脚本生成方法、装置、系统和介质 | |
US8954307B1 (en) | Chained programming language preprocessors for circuit simulation | |
CN102360381A (zh) | 一种对嵌入式程序进行无损压制的装置和方法 | |
Corre et al. | Fast template-based heterogeneous mpsoc synthesis on fpga | |
CN111340175B (zh) | 图重写的处理方法及装置、计算设备及可读介质 | |
CN113448874A (zh) | 一种单元测试脚本的生成方法及装置 | |
CN114077884A (zh) | 深度学习模型的模型转换优化装置、方法及可读存储介质 | |
EP2782005A1 (en) | Verifying state reachability in a statechart model having computer program code embedded therein | |
CN113190657B (zh) | NLP数据预处理方法、jvm及spark端服务器 | |
US7580962B1 (en) | Automatic code generation for co-simulation interfaces | |
EP4068141B1 (en) | Method and system to enable print functionality in high-level synthesis (hls) design platforms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200214 |