CN109542713B - 一种验证方法及验证装置 - Google Patents

一种验证方法及验证装置 Download PDF

Info

Publication number
CN109542713B
CN109542713B CN201910128740.6A CN201910128740A CN109542713B CN 109542713 B CN109542713 B CN 109542713B CN 201910128740 A CN201910128740 A CN 201910128740A CN 109542713 B CN109542713 B CN 109542713B
Authority
CN
China
Prior art keywords
neural network
network layer
currently
operation result
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910128740.6A
Other languages
English (en)
Other versions
CN109542713A (zh
Inventor
陈海波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeepBlue AI Chips Research Institute Jiangsu Co Ltd
Original Assignee
DeepBlue AI Chips Research Institute Jiangsu Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeepBlue AI Chips Research Institute Jiangsu Co Ltd filed Critical DeepBlue AI Chips Research Institute Jiangsu Co Ltd
Priority to CN201910128740.6A priority Critical patent/CN109542713B/zh
Publication of CN109542713A publication Critical patent/CN109542713A/zh
Application granted granted Critical
Publication of CN109542713B publication Critical patent/CN109542713B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/22Detection or location of defective computer hardware by testing during standby operation or during idle time, e.g. start-up testing
    • G06F11/26Functional testing
    • G06F11/261Functional testing by simulating additional hardware, e.g. fault simulation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种验证方法及验证装置,用于提高对运行结果的验证效率。其中,验证方法包括:从现场可编程阵列FPGA板卡加速实现卷积神经网络时,计算机上位软件通过自定义的第一寄存器依次使能卷积神经网络层,自动检测对应层运行结果结束时,通过PCIE接口获取卷积神经网络的当前层的运行结果;与神经网络层对应的计算机软件仿真的仿真结果对比,如果对比结果一致,自动使能下一层网络继续运算,如果对比不一致返回结果不一致的网络运行层以及位置信息。

Description

一种验证方法及验证装置
技术领域
本申请涉及神经网络硬件加速技术领域,尤其涉及一种验证方法及验证装置。
背景技术
随着人工智能的迅猛发展,神经网络也越来越受到人们的关注。目前神经网络大部分通过软件实现,数据量大,对硬件的计算能力要求高,依赖于云端的高计算能力,功耗大。
针对上述问题,利用现场可编程门阵列(Field-Programmable Gate Array,FPGA)加速器实现卷积神经网络(Convolutional Neural Network,CNN)也逐渐被提出来。实现过程是利用计算机软件设计仿真后,利用FPGA实现对卷积神经网络进行加速,而在利用FPGA设计CNN时,不可避免的会出现各种各样的问题,因此利用计算机软件仿真的仿真结果对FPGA设计的运行结果进行验证,也就是将FPGA设计的运行结果与仿真结果进行比对。
目前,将FPGA设计的运行结果与仿真结果进行比对是通过人工进行的,花费的时间较长,比对效率低,尤其是在神经网络有很多层,每层神经网络都有计算的数据的情况下,而会影响基于FPGA的CNN设计的效率。
发明内容
本申请实施例提供一种验证方法及验证装置,用于提高对FPGA设计的运行结果的验证效率。
第一方面,提供一种验证方法,该方法可由上位机执行,上位机例如个人计算机(personal computer,PC)、主机。该方法包括:从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果;根据所述当前运行的神经网络层对应的计算机软件仿真的仿真结果,对所述运行结果进行验证,获得验证结果。
在本申请实施例中,主机端从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果后,根据当前运行的神经网络层对应的计算机软件仿真的仿真结果,对运行结果进行验证,实现了运行结果与仿真结果的自动比对,避免通过人工进行一层层对比,从而可以提高对运行结果的验证效率。
在本申请实施例中,主机端与FPGA板卡之间可以通过高速串行计算机扩展总线(peripheral component interconnect express,PCI-E)传输数据,也可以通过集成电路总线(Inter-Intergrated Circuit,IIC)传输数据,也可以通过其它方式传输数据,在此不再一一列举。其中,主机端与FPGA板卡之间通过PCI-E总线传输数据时,也就是主机端可以通过PCIE接口与FPGA板卡之间进行数据交换。
在一个可能的设计中,在从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果之前,所述方法还包括:将FPGA板卡的第一寄存器中对应所述当前运行的神经网络层的使能值设置为1,除所述当前运行的神经网络层外的其它神经网络层的使能值设置为零;其中,所述第一寄存器用于存储所述卷积神经网络的所有神经网络层中每层神经网络层的使能值。
在本申请实施例中,主机端需要将FPGA板卡的第一寄存器中对应当前运行的神经网络层的使能值设置为1,以使得FPGA板卡能够运行使能值为1的神经网络层。
在此需要说明的是,当前运行的神经网络层可以是卷积神经网络的首层,也可以是卷积神经网络除首层外的任意一层,在当前运行的神经网络层是除首层外的任意一层时,需要预先获取当前运行的神经网络层的上一层的运行结果,例如将当前运行的神经网络层的上一层的运行结果导入FPGA板卡的双倍速率同步动态随机存储器(Double DataRate SDRAM,DDR)中,以保证当前运行的神经网络层能够正常运行,并获得运行结果。
在一个可能的设计中,从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果,包括:检测获得所述FPGA板卡的第二寄存器存储的数据;其中,所述第二寄存器存储的数据用于表征所述当前运行的神经网络层的运行是否结束;当所述第二寄存器存储的数据为1时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果;或在接收到所述FPGA板卡发送的中断指示时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果;其中,所述中断指示用于表征所述当前运行的神经网络层运行结束。
在本申请实施例中,主机端可以通过检测FPGA板卡的第二寄存器中存储的数据,从FPGA板卡获取当前运行的神经网络层的运行结果,也可以在接收到FPGA板卡发送的中断指示时,从FPGA板卡获取当前运行的神经网络层的运行结果,或者在满足其它条件时,从FPGA板卡获取当前运行的神经网络层的运行结果,在此不做限制。
在本申请实施例中,当主机端可以实时检测第二寄存器中的数据,也可以按照预设时间间隔检测第二寄存器中的数据,也可以通过其它方式检测第二寄存器中的数据,在此不再一一赘述。
在本申请实施例中,主机在接收到FPGA板卡发送的中断指示,才从FPGA板卡获取当前运行的神经网络层的运行结果时,可以避免主机端对FPGA板卡的第一寄存器不停的进行检测,而造成资源浪费。
在一个可能的设计中,从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果,包括:从所述FPGA板卡的第三寄存器获取所述当前运行的神经网络层的层数;根据与所述层数对应的神经网络层的内存存储器的首地址以及存储长度,从所述内存存储器获取所述当前运行的神经网络层的运行结果。
在一个可能的设计中,根据与所述层数对应的神经网络层的内存存储器的首地址以及存储长度,从所述内存存储器获取所述当前运行的神经网络层的运行结果,包括:从所述内存存储器读取所述当前运行的神经网络层的运行结果;对所述运行结果进行数据翻转,获得翻转后的运行结果;其中,所述数据翻转用于将所述运行结果的存储模式由第一模式转换为第二模式,所述第一模式和所述第二模式为小端模式和大端模式中的一种;将所述翻转后的运行结果存储到上位机的内存中。
在本申请实施例中,由于FPGA板卡存储的数据与主机端存储的数据可能存在大小端问题,为保证主机端能够获取正确的数据,主机端在从FPGA的内存存储器读取运行数据后,对运行数据进行数据翻转,以降低FPGA资源。
在本申请实施例中,将运行结果的存储模式由第一模式转换为第二模式,可以是由小端模式转换为大端模式,也可以是由大端模式转换为小端模式。
在一个可能的设计中,所述方法还包括:当所述验证结果一致,使能当前运行的神经网络层的下一神经网络层;其中,在所述所有神经网络层均运行结束时,将所述第一寄存器置零;或当所述对比结果非一致时,计算出所述运行结果与所述仿真结果存在差别的位置的宽度、高度及深度。
在本申请实施例中,当验证结果一致,且卷积神经网络的所有神经网络层运行结束时,则将FPGA板卡的第三寄存器置零,也就是说对所有神经网络层的验证结束。当验证结果不一致时,则计算运行结果与仿真结果存在差别位置的宽度、高度及深度,也就是存在差别位置的图像的宽度、高度以及深度,进而根据存在差别位置图像的宽度、高度、深度计算出对应的输入图像的宽度、高度以及深度,以方便FPGA板卡端的问题定位。
第二方面,提供一种验证装置,该验证装置具有实现上述方法设计中的功能。这些功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的单元。
在一个可能的设计中,验证装置的具体结构可包括获取单元和验证单元。获取单元和验证单元可执行上述第一方面或第一方面的任意一种可能的设计所提供的方法中的相应功能。
第三方面,提供一种验证装置,包括:存储器,用于存储计算机可执行程序代码,以及处理器,存储器可以设置在处理器中,存储器和处理器可以通过芯片实现。其中,存储器所存储的程序代码包括指令,当处理器执行所述指令时,所述指令使验证装置执行上述第一方面或第一方面的任意一种可能的设计所涉及的方法。
第四方面,提供一种计算机存储介质,用于存储为上述第二方面所描述的验证装置或第三方面所描述的验证装置所用的计算机软件指令,并包含用于执行上述第一方面、第一方面的任意一种设计的方法所涉及的程序。
第五方面,提供一种计算机程序产品,该程序产品在被计算机调用执行时,可以使得计算机执行上述第一方面、第一方面的任意一种设计的方法。
在本申请实施例中,主机端从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果后,根据当前运行的神经网络层对应的计算机软件仿真的仿真结果,对运行结果进行验证,实现了运行结果与仿真结果的自动比对,避免通过人工进行一层层对比,从而可以提高对运行结果的验证效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,显而易见地,下面所介绍的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种应用场景示意图;
图2为本申请实施例提供的一种验证方式的流程图;
图3为图像对应的数据表示的示意图;
图4为本申请实施例提供的一种验证装置的示意图;
图5为本申请实施例提供的另一种验证装置的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。
目前,将FPGA设计的运行结果与仿真结果进行比对是通过人工进行的,花费的时间较长,比对效率低,尤其是在神经网络有很多层,每层神经网络都有计算的数据的情况下,而会影响基于FPGA的CNN设计的效率。
鉴于此,本申请实施例提供一种验证方法,主机端从FPGA板卡获取当前运行的神经网络层的运行结果,根据当前运行的神经网络层对应的计算机软件仿真的仿真结果,对运行结果进行验证,实现了运行结果与仿真结果的自动比对,避免通过人工进行一层层对比,从而可以提高对运行结果的验证效率。
请参见图1,为本申请实施例的一种应用场景。图1中包括上位机、FPGA板卡,以及DDR。其中,上位机和FPGA板卡之间通过数据总线(图1中未示出),例如,PCI-E进行数据交换,在FPGA板卡中,对于数据量较小的则存储于FPGA板卡的寄存器中,对于数据量较大的数据则存储于DDR中,通过直接内存存取(Direct Memory Access,DMA)方式读写。此处,上位机和FPGA板卡之间也可以通过PCI总线、IIC总线进行数据交换,在此不做限制。其中,上位机可以是主机,也可以是PC或者为其它终端设备。
下面结合附图介绍本申请实施例提供的技术方案。在下面的介绍过程中,以将本申请提供的技术方案应用在图1所示的应用场景中为例,且以上位机是主机为例。
请参见图2,本申请实施例提供一种验证方法,该方法的流程大致描述如下:
S201:主机将FPGA板卡的第一寄存器中对应当前运行的神经网络层的使能值设置为1,除当前运行的神经网络层外的其它神经网络层的使能值设置为零。
在此需要说明的是,主机端还向FPGA板卡的DDR中导入卷积神经网络的权重信息及偏置信息,卷积神经网络的权重也就是卷积神经网络的卷积核。
另外,在本申请实施例中,当前运行的神经网络层可以是卷积神经网络的首层,也可以是卷积神经网络的除首层外的任意一层,在当前运行的神经网络层是除首层外的任意一层时,需要预先获取当前运行的神经网络层的上一层的运行结果,例如将当前运行的神经网络层的上一层的运行结果导入FPGA板卡的DDR中,以保证当前运行的神经网络层能够正常运行,并获得运行结果。
第一寄存器可以为32位使能寄存器(cnn_enable),该使能寄存器的偏移地址为0x00000000,用于存储卷积神经网络的所有神经网络层中每层神经网络层的使能值。例如,第一寄存器的第[0]位为高,表示第0层网络使能,第[1]位为高表示第一层网络使能。
相应的,在FPGA板卡检测到第一寄存器的使能值有1时,则开始运行与使能值为1对应的神经网络层,得到运行结果。在本申请实施例中,当前运行的神经网络层的运行结果也是图像,图像对应的数据在DDR中存储的顺序可以按照深度、宽度及高度的顺序存储,也可以按照宽度、深度及高度的顺序存储,或者按照高度、宽度、深度的顺序存储,或者按照其它顺序存储到DDR中,在此不做限制。下面将运行结果以宽度、深度及高度顺序存储为例,请参见图3,图3中左边的图片就可以当做是一个宽度为4、高度为4、深度为3的三维数据,按照深度、宽度、高度顺序存储,存储到DDR中为12、12、12、94、94、94、83、83、83、2、3、2、34……2。
在FPGA板卡将运行结果存储到DDR中之后,则将FPGA板卡的第二寄存器设置位1。此处第二寄存器可以为1位的当前层结束寄存器(current_layer_finish),该寄存器的偏移地址为0x00000008,当第二寄存器为高位时,表示当前运行的神经网络层运行结束,当第二寄存器为低位时,表示当前运行的神经网络层运行未结束。在此,需要说明的是,当从第二寄存器读取一次之后,第二寄存器被设置为0。
S202:从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果。
在本申请实施例中,运行结果可以以文件的形式存储到FPGA板卡的DDR中,文件的命名方式可以是FPGA+图片名称+网络层,其中,文件的命名方式在能够体现数据来源,例如是FPGA板卡端的数据还是主机端的数据、具体图片以及神经网络层的层数的前提下,根据具体实际需要进行改变,在此不做具体限制。
在本申请实施例中,与当前运行的神经网络层对应的计算机软件仿真的仿真结果也可以以文件的形式存储到FPGA板卡的DDR中,文件的命名方式可以是主机+图片名称+网络层。
对步骤S202的具体实现方式,包括但不限于以下两种,下面分别进行介绍。
实现方式一
检测获得FPGA板卡的第二寄存器存储的数据;当所述第二寄存器存储的数据为1时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果。
在本申请实施例中,主机端可以实时检测第二寄存器中存储的数据,也可以按照预设时间间隔,例如2s(秒)、5s或其它预设时间间隔来检测第二寄存器中存储的数据。当第二寄存器存储的数据为1时,从FPGA板卡获取当前运行的神经网络层的运行结果。
实现方式二
在接收到FPGA板卡发送的中断指示时,从FPGA板卡获取当前运行的神经网络层的运行结果;其中,中断指示用于表征当前运行的神经网络层运行结束。
在本申请实施例中,为降低主机端的资源浪费,主机端可以在接收到FPGA板卡发送的中断指示时,再从FPGA板卡获取当前运行的神经网络层的运行结果。
在本申请实施例中,主机端无论是按照上述哪种情况下,从FPGA板卡获取当前运行的神经网络层的运行结果,均按照如下步骤获取:从FPGA板卡的第三寄存器获取当前运行的神经网络层的层数;根据与层数对应的神经网络层的内存存储器的首地址以及存储长度,从内存存储器获取当前运行的神经网络层的运行结果。
在具体实现过程中,主机端根据与层数对应的神经网络层的内存存储器的首地址以及存储长度,从内存存储器获取当前运行的神经网络层的运行结果。例如,内存存储器的首地址为000,存储长度为8×3bit(比特),则对应的结束地址为111,则主机端读取内存存储器中从000至111之间的数据。
此处,第三寄存器可以为16位的卷积神经网络的当前层数寄存器(Cnn_current_layer),该寄存器的偏移地址为0x00000008。第三寄存器中存储的数据用于表示当前运行的神经网络层的层数,从第0层依次累加。
在本申请实施例中,由于内存存储器中存储的数据和主机端存储的数据可能存在大小端问题,因此,在内存存储器中存储数据模式与主机端存储数据的模式不同时,需要对从内存存储器中读取的数据进行数据翻转,在具体实现过程中,主机端从内存存储器读取所述当前运行的神经网络层的运行结果;对运行结果进行数据翻转,获得翻转后的运行结果;其中,数据翻转用于将运行结果的存储模式由第一模式转换为第二模式,第一模式和第二模式为小端模式和大端模式中的一种;将翻转后的运行结果存储到计算机的内存中。
在本申请实施例中,小端模式是指数据的高字节保存在内存的高地址中,而数据的低字节保存在内存的低地址中;大端模式是指数据的高字节保存在内存的低地址中,而数据的低字节保存在内存的高地址中。以一个unsigned int整型数据0x12345678为例,其按照大端模式存储内容和按照小端模式存储内容如下表一所示:
表一
大端模式 小端模式
0x01000000 0x12 0x78
0x01000001 0x34 0x56
0x01000002 0x56 0x34
0x01000003 0x78 0x12
在具体实现过程中,若主机端存储数据的模式为大端模式,FPGA板卡存储的数据为小端模式,那么主机端从内存存储器中读取运行结果之后,将运行结果转化为大端模式;若主机端存储数据的模式为小端模式,FPGA板卡存储的数据为大端模式,那么逐字段从内存存储器中读取运行结果之后,将运行结果转化为小端模式。通过该实现方式,FPGA板卡自身不需要在对存储数据进行格式转换,从而能够节约FPGA资源。
S203:根据所述当前运行的神经网络层对应的计算机软件仿真的仿真结果,对所述运行结果进行验证,获得验证结果。
在主机端从FPGA板卡获取当前运行的神经网络层的运行结果后,则根据当前运行的神经网络层对应的计算机软件仿真的仿真结果,对运行结果进行验证,也就是将运行结果与仿真结果进行比较。
其中,当验证结果一致时,则从FPGA板卡的第四寄存器读取数据,当读取数据为高位时,表示卷积神经网络的所有神经网络层运行结束,则将第一寄存器置零,以结束所有神经网络层的运行结果的验证。当读取数据为低位时,表示卷积神经网络的所有神经网络层中还有未运行的神经网络层,则将第一寄存器中对应当前运行的神经网络层的下一神经网络层的使能为1,重复上述步骤S202及步骤203,直至卷积神经网络的所有神经网络层运行结束。
此处,第四寄存器可以为1位的卷积神经网络结束(cnn_finish)寄存器,该寄存器的偏移值地址为0x00000009。下面统一给出上述自定义的第一寄存器至第四寄存器的表格,具体请见表二:
表二
Figure GDA0003030490310000071
上述表二中,Address表示寄存器的偏移地址,Name表示寄存器的名称,R/W表示读写方式,Bit表示寄存器的位数,Description表示对寄存器的描述。
其中,自定义寄存器中还包括第五寄存器,也就是上述表二中神经网络的神经网络层总数寄存器(Cnn_layer_num)。
当验证结果不一致时,主机端计算除运行结果与仿真结果存在差别的位置的宽度、高度及深度。
在本申请实施例中,主机端获取运行结果是一维数据,将该一维数据与仿真结果的一维数据进行比对,确定运行结果的一维数据与仿真结果的一维数据中存在差别的地方,也就是不一样的数据,然后根据事先约定的存储数据的顺序,也就是上述提到的运行结果的存储顺序,得到对应的三维数据,进而确定出存在差别的位置的宽度、高度及深度。例如,假如第1层输出结果总数w(2),H(3),D(4),则一维数据大小为2*3*4=24,FPGA存储的顺序为W、H和D方向,则24个数据的第一个数据D=0,H=0,W=0,第二个数据D=0,H=0,W=1,第三个数据第一个数据D=0,H=1,W=0,第四个数D=0,H=1,W=1,.....。如果对比的一维数据的第10个数不一致,则不一致的D=2,H=1,W=1。
在计算除存在差别的位置的宽度、高度及深度后,可以根据存在差别位置的宽度、高度及深度,计算出对应输入位置的宽度、高度及深度以及卷积核,从而方便FPGA板卡端的问题定位。
图4示出了一种验证装置400的结构示意图。该验证装置400可以实现上文中涉及的主机的功能。该验证装置400可以包括获取单元401和验证单元402。其中,获取单元401可以用于执行图2所示的实施例中的S202,和/或用于支持本文所描述的技术的其它过程。验证单元402可以用于执行图2所示的实施例中的S203,和/或用于支持本文所描述的技术的其它过程。其中,上述方法实施例涉及的各步骤的所有相关内容均可以援引到对应功能模块的功能描述,在此不再赘述。
在本申请实施例中,验证装置400对应各个功能划分各个功能模块的形式来呈现,或者,可以采用集成的方式划分各个功能模块的形式来呈现。这里的“模块”可以指特定应用集成电路(application-specific integrated circuit,ASIC),执行一个或多个软件或固件程序的处理器和存储器,集成逻辑电路,和/或其他可以提供上述功能的器件。
在一个简单的实施例中,本领域的技术人员可以想到,还可以将验证装置400通过如图5所示的结构实现。
如图5所示,验证装置500可以包括:存储器501、处理器502以及通信接口503。其中,存储器502、通信接口503与处理器502耦合。存储器501可以设置在处理器502中,存储器502以及通信接口503可以通过芯片实现。存储器502用于存储计算机执行指令,当验证装置500运行时,处理器502执行存储器501存储的计算机执行指令,以使验证装置500执行图2所示的实施例提供的验证方法中主机所执行的步骤。具体的验证方法可参考上文及附图中的相关描述,此处不再赘述。
可选的,验证装置500可以是现场可编程门阵列(field-programmable gatearray,FPGA),专用集成芯片(application specific integrated circuit,ASIC),系统芯片(system on chip,SoC),中央处理器(central processor unit,CPU),网络处理器(network processor,NP),数字信号处理电路(digital signal processor,DSP),微控制器(micro controller unit,MCU),还可以采用可编程控制器(programmable logicdevice,PLD)或其他集成芯片。
本申请实施例提供一种计算机存储介质,该存储介质可以包括存储器,该存储器可存储由程序,该程序执行时包括如前的图2所示的方法实施例中记载的主机所执行的全部步骤。
本领域内的技术人员应明白,本申请实施例可提供为方法、系统、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上所述,以上实施例仅用以对本申请的技术方案进行了详细介绍,但以上实施例的说明只是用于帮助理解本发明实施例的方法,不应理解为对本发明实施例的限制。本技术领域的技术人员可轻易想到的变化或替换,都应涵盖在本发明实施例的保护范围之内。

Claims (17)

1.一种验证方法,其特征在于,包括:
从现场可编程阵列FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果;
根据所述当前运行的神经网络层对应的计算机软件仿真的仿真结果,对所述运行结果进行验证,获得验证结果;
当所述验证结果不一致时,计算出所述运行结果与所述仿真结果存在差别的位置的宽度、高度及深度;
其中,在所述当前运行的神经网络层是除所述卷积神经网络的首层外的任一层时,在所述FPGA板卡获取所述当前运行的神经网络层的运行结果之前,获取所述当前运行的神经网络层的上一层的运行结果。
2.根据权利要求1所述的方法,其特征在于,在从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果之前,所述方法还包括:
将所述FPGA板卡的第一寄存器中对应所述当前运行的神经网络层的使能值设置为1,除所述当前运行的神经网络层外的其它神经网络层的使能值设置为零,以使所述FPGA板卡运行使能值为1的神经网络层;
其中,所述第一寄存器用于存储所述卷积神经网络的所有神经网络层中每层神经网络层的使能值。
3.根据权利要求1或2所述的方法,其特征在于,从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果,包括:
检测获得所述FPGA板卡的第二寄存器存储的数据;其中,所述第二寄存器存储的数据用于表征所述当前运行的神经网络层的运行是否结束;
当所述第二寄存器存储的数据为1时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果。
4.根据权利要求1或2所述的方法,其特征在于,从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果,包括:
在接收到所述FPGA板卡发送的中断指示时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果;
其中,所述中断指示用于表征所述当前运行的神经网络层运行结束。
5.根据权利要求1或2所述的方法,其特征在于,从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果,包括:
从所述FPGA板卡的第三寄存器获取所述当前运行的神经网络层的层数;
根据与所述层数对应的神经网络层的内存存储器的首地址以及存储长度,从所述内存存储器获取所述当前运行的神经网络层的运行结果。
6.根据权利要求5所述的方法,其特征在于,根据与所述层数对应的神经网络层的内存存储器的首地址以及存储长度,从所述内存存储器获取所述当前运行的神经网络层的运行结果,包括:
从所述内存存储器读取所述当前运行的神经网络层的运行结果;
对所述运行结果进行数据翻转,获得翻转后的运行结果;其中,所述数据翻转用于将所述运行结果的存储模式由第一模式转换为第二模式,所述第一模式和所述第二模式为小端模式和大端模式中的一种;
将所述翻转后的运行结果存储到上位机的内存中。
7.根据权利要求2所述的方法,其特征在于,所述方法还包括:
当所述验证结果一致,使能当前运行的神经网络层的下一神经网络层;其中,在所述所有神经网络层均运行结束时,将所述第一寄存器置零;或
当所述验证结果不一致时,计算出所述运行结果与所述仿真结果存在差别的位置的宽度、高度及深度。
8.一种验证装置,其特征在于,包括:
获取单元,用于从现场可编程阵列FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果;
验证单元,用于根据所述当前运行的神经网络层对应的计算机软件仿真的仿真结果,对所述运行结果进行验证,获得验证结果;
其中,所述验证单元用于当所述验证结果不一致时,计算出所述运行结果与所述仿真结果存在差别的位置的宽度、高度及深度;
所述获取单元用于在所述当前运行的神经网络层是除所述卷积神经网络的首层外的任一层时,在所述FPGA板卡获取所述当前运行的神经网络层的运行结果之前,获取所述当前运行的神经网络层的上一层的运行结果。
9.一种验证装置,其特征在于,包括:
存储器,用于存储指令;
处理器,用于读取所述存储器中的指令,执行下列过程:
从现场可编程阵列FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果;
根据所述当前运行的神经网络层对应的计算仿真结果,对所述运行结果进行验证,获得验证结果;
当所述验证结果不一致时,计算出所述运行结果与所述仿真结果存在差别的位置的宽度、高度及深度;
其中,在所述当前运行的神经网络层是除所述卷积神经网络的首层外的任一层时,在所述FPGA板卡获取所述当前运行的神经网络层的运行结果之前,获取所述当前运行的神经网络层的上一层的运行结果。
10.根据权利要求9所述的验证装置,其特征在于,所述处理器还用于:
将所述FPGA板卡的第一寄存器中对应所述当前运行的神经网络层的使能值设置为1,除所述当前运行的神经网络层外的其它神经网络层的使能值设置为零,以使所述FPGA板卡运行使能值为1的神经网络层;
其中,所述第一寄存器用于存储所述卷积神经网络的所有神经网络层中每层神经网络层的使能值。
11.根据权利要求9或10所述的验证装置,其特征在于,在所述处理器从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果时,所述处理器具体用于:
检测获得所述FPGA板卡的第二寄存器存储的数据;其中,所述第二寄存器存储的数据用于表征所述当前运行的神经网络层的运行是否结束;
当所述第二寄存器存储的数据为1时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果。
12.根据权利要求9或10所述的验证装置,其特征在于,在所述处理器从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果时,所述处理器具体用于:
在接收到所述FPGA板卡发送的中断指示时,从所述FPGA板卡获取所述当前运行的神经网络层的运行结果;
其中,所述中断指示用于表征所述当前运行的神经网络层运行结束。
13.根据权利要求9或10所述的验证装置,其特征在于,在所述处理器从FPGA板卡获取卷积神经网络的当前运行的神经网络层的运行结果时,所述处理器具体用于:
从所述FPGA板卡的第三寄存器获取所述当前运行的神经网络层的层数;
根据与所述层数对应的神经网络层的内存存储器的首地址以及存储长度,从所述内存存储器获取所述当前运行的神经网络层的运行结果。
14.根据权利要求13所述的验证装置,其特征在于,在所述处理器根据与所述层数对应的神经网络层的内存存储器的首地址以及存储长度,从所述内存存储器获取所述当前运行的神经网络层的运行结果时,所述处理器具体用于:
从所述内存存储器读取所述当前运行的神经网络层的运行结果;
对所述运行结果进行数据翻转,获得翻转后的运行结果;其中,所述数据翻转用于将所述运行结果的存储模式由第一模式转换为第二模式,所述第一模式和所述第二模式为小端模式和大端模式中的一种;
将所述翻转后的运行结果存储到上位机的内存中。
15.根据权利要求10所述的验证装置,其特征在于,所述处理器还用于:
当所述验证结果一致,使能当前运行的神经网络层的下一神经网络层;其中,在所述所有神经网络层均运行结束时,将所述第一寄存器置零;或
当所述验证结果不一致时,计算出所述运行结果与所述仿真结果存在差别的位置的宽度、高度及深度。
16.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有指令,当所述指令在计算机上运行时,使得所述计算机执行如权利要求1-7任一权利要求所述的方法。
17.一种用于验证方法的装置,其特征在于,所述装置包括存储器、处理器及存储在所述存储器上的指令,当所述指令在所述处理器上运行时,使得所述装置执行如权利要求1-7任一权利要求所述的方法。
CN201910128740.6A 2019-02-21 2019-02-21 一种验证方法及验证装置 Active CN109542713B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910128740.6A CN109542713B (zh) 2019-02-21 2019-02-21 一种验证方法及验证装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910128740.6A CN109542713B (zh) 2019-02-21 2019-02-21 一种验证方法及验证装置

Publications (2)

Publication Number Publication Date
CN109542713A CN109542713A (zh) 2019-03-29
CN109542713B true CN109542713B (zh) 2021-07-09

Family

ID=65838836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910128740.6A Active CN109542713B (zh) 2019-02-21 2019-02-21 一种验证方法及验证装置

Country Status (1)

Country Link
CN (1) CN109542713B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740302B (zh) * 2019-04-02 2020-01-10 深兰人工智能芯片研究院(江苏)有限公司 一种神经网络的仿真方法和装置
CN110334801A (zh) * 2019-05-09 2019-10-15 苏州浪潮智能科技有限公司 一种卷积神经网络的硬件加速方法、装置、设备及系统
US11308396B2 (en) 2019-06-27 2022-04-19 Amazon Technologies, Inc. Neural network layer-by-layer debugging
CN110309917B (zh) * 2019-07-05 2020-12-18 安徽寒武纪信息科技有限公司 离线模型的验证方法及相关装置
CN111143208B (zh) * 2019-12-23 2021-04-06 江苏亨通太赫兹技术有限公司 基于处理器技术辅助fpga实现ai算法的验证方法
CN111767220A (zh) * 2020-06-24 2020-10-13 深兰人工智能芯片研究院(江苏)有限公司 一种测试方法及装置
CN112363764B (zh) * 2020-11-27 2021-07-16 哈尔滨工业大学 一种跨平台通讯的精密运动台控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1901726A (zh) * 2005-07-21 2007-01-24 华冠通讯股份有限公司 运用类神经网络于手机的自动测试方法
CN106528363A (zh) * 2015-09-14 2017-03-22 深圳市博巨兴实业发展有限公司 一种软硬件协同设计的验证方法和装置
CN108470211A (zh) * 2018-04-09 2018-08-31 郑州云海信息技术有限公司 一种卷积计算的实现方法、设备和计算机存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1901726A (zh) * 2005-07-21 2007-01-24 华冠通讯股份有限公司 运用类神经网络于手机的自动测试方法
CN106528363A (zh) * 2015-09-14 2017-03-22 深圳市博巨兴实业发展有限公司 一种软硬件协同设计的验证方法和装置
CN108470211A (zh) * 2018-04-09 2018-08-31 郑州云海信息技术有限公司 一种卷积计算的实现方法、设备和计算机存储介质

Also Published As

Publication number Publication date
CN109542713A (zh) 2019-03-29

Similar Documents

Publication Publication Date Title
CN109542713B (zh) 一种验证方法及验证装置
WO2015032282A1 (zh) 电子设备硬件性能的测试方法及装置
CN106779057B (zh) 基于gpu的计算二值神经网络卷积的方法及装置
US10795870B1 (en) Schema based validation of extra fields in a data file
US20210149974A1 (en) Recording ledger data on a blockchain
WO2023236365A1 (zh) 数据处理方法、装置、ai芯片、电子设备及存储介质
CN110825436B (zh) 应用于人工智能芯片的计算方法和人工智能芯片
Li et al. BLASTP-ACC: parallel architecture and hardware accelerator design for BLAST-based protein sequence alignment
CN114004352B (zh) 一种仿真实现方法、神经网络编译器以及计算机可读存储介质
CN107402905B (zh) 基于神经网络的计算方法及装置
CN110036367A (zh) 一种ai运算结果的验证方法及相关产品
CN104375946A (zh) 一种数据处理的方法及装置
CN113918233A (zh) 一种ai芯片控制方法、电子设备及ai芯片
CN107071553B (zh) 一种修改视频语音的方法、装置和计算机可读存储介质
CN112433812A (zh) 一种虚拟机跨集群迁移方法、系统、设备及计算机介质
US9791509B2 (en) Monitoring microprocessor interface information for a preset service using an address based filter
CN107748711B (zh) 自动优化Storm并行度的方法、终端设备及存储介质
US11106478B2 (en) Simulation device, simulation method, and computer readable medium
US9003364B2 (en) Overriding system attributes and function returns in a software subsystem
CN110378037B (zh) 基于Ceph的CFD仿真数据存储方法、装置及服务器
CN111737260A (zh) 一种数据复制一致性检查的方法及系统
CN111723920A (zh) 人工智能计算装置及相关产品
CN106569778B (zh) 一种数据处理的方法及电子设备
US20240037792A1 (en) Determining optical center in an image
US20160188392A1 (en) Fast approximate conflict detection

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant