CN108875914B - 对神经网络数据进行预处理和后处理的方法和装置 - Google Patents
对神经网络数据进行预处理和后处理的方法和装置 Download PDFInfo
- Publication number
- CN108875914B CN108875914B CN201810555810.1A CN201810555810A CN108875914B CN 108875914 B CN108875914 B CN 108875914B CN 201810555810 A CN201810555810 A CN 201810555810A CN 108875914 B CN108875914 B CN 108875914B
- Authority
- CN
- China
- Prior art keywords
- data
- output
- sequence
- output channel
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Abstract
公开了对神经网络数据进行预处理和后处理的方法和装置。用于预处理的方法包括:根据数据后处理,确定神经网络的指定层的输出通道集合序列;以及根据输出通道集合序列和指定层的设计参数,生成指定层的运算参数序列。通过该方法,用于数据后处理的处理器能够在数据后处理过程中高效地访问有效数据,从而能够显著地提升处理性能并节约带宽消耗。
Description
技术领域
本公开总体上涉及神经网络的技术领域,并且具体地涉及对神经网络数据进行预处理和后处理的方法和装置。
背景技术
处理器在访问物理存储器中的数据时通常采用高速缓存机制。为了确保数据的一致性,在读取数据之前往往将清空高速缓冲存储器中的相应区域;而在访问某个数据时,按照高速缓冲存储器的缓存行(Cache Line)的长度将连续物理地址上的数据读入到高速缓冲存储器中。
然而,由神经网络(例如,卷积神经网络)输出的数据通常包括在多个通道上的数据,并且虽然输出数据在实际的物理存储器中在整体上可能分配有一块连续的存储空间,但是每个通道上的数据在该存储空间中可能不是连续存放的,使得在针对神经网络的输出数据执行的数据后处理的过程中,处理器(例如,后处理器)为了单次的计算而读取的数据往往跨越缓存行的地址对齐边界,并且因此需要加载至少两个缓存行的数据,从而造成带宽和时间上的额外开销。
另外,用于神经网络运算的专用硬件加速器通常设计有很多对齐的通道,使得输出数据往往包括很多用于数据对齐的无效数据,并导致更大的带宽开销。
发明内容
根据本公开的一方面,提供了一种对神经网络数据进行预处理的方法。该方法包括:根据要对神经网络的指定层的各个输出通道上的数据执行的数据后处理,确定指定层的输出通道集合序列,输出通道集合序列中的每个输出通道集合包括指定层的一个或多个输出通道;以及根据输出通道集合序列和指定层的设计参数,生成指定层的运算参数序列,运算参数序列中的每个运算参数包括设计参数的与输出通道集合序列中相应的输出通道集合相对应的一个或多个核。
在一个实施例中,确定输出通道集合序列可以包括:确定数据后处理的处理流程中的一个或多个程序块,每个程序块包括与指定层的至少一个输出通道相关联的单入单出的指令序列;确定程序块序列;以及根据程序块序列,确定输出通道集合序列。在一个实施例中,确定程序块序列可以包括:根据数据后处理的处理流程,确定以每个程序块为顶点的顶点活动网;以及基于顶点活动网对程序块进行拓扑排序。在一个实施例中,分别与每个程序块相关联的每个输出通道的集合分别对应于输出通道集合序列中的一个输出通道集合。
在一个实施例中,该方法还可以包括:调整输出通道集合序列,使得调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在数据后处理中使用的高速缓冲存储器的单个缓存行的容量。
在不同的实施例中,调整输出通道集合序列可以包括下列中的一个或多个操作:拆分输出通道集合序列中的输出通道集合;合并输出通道集合序列中的相邻的输出通道集合;删除输出通道集合序列中的输出通道集合,所删除的输出通道集合是输出通道集合序列中的另一个输出通道集合的子集,其中,所删除的输出通道集合与在输出通道集合序列中作为所删除的输出通道集合的超集的另一个通道集合可以是相邻的;删除输出通道集合序列中的第一输出通道集合中的一个或多个输出通道,所删除的一个或多个输出通道包括在输出通道集合序列中与第一输出通道集合相邻的第二输出通道集合中;从输出通道集合序列中相邻的第一输出通道集合和第二输出通道集合中删除一个或多个相同的输出通道,然后将所删除的一个或多个相同的输出通道作为新的输出通道集合插入到输出通道集合序列中。
根据本公开的另一方面,还提供了一种计算机可读存储介质,在其上存储的程序指在被执行时执行上述对神经网络数据进行预处理的方法。
根据本公开的另一方面,还提供了一种对神经网络数据进行预处理的装置。该装置可以包括:一个或多个处理器,被配置为至少执行上述对神经网络数据进行预处理的方法。
根据本公开的另一方面,还提供了一种对神经网络数据进行预处理的装置。该装置包括:数据后处理分析器,被配置为根据要对神经网络的指定层的各个输出通道上的数据执行的数据后处理,确定指定层的输出通道集合序列,输出通道集合序列中的每个输出通道集合包括指定层的一个或多个输出通道;以及参数转化器,被配置为根据输出通道集合序列和指定层的设计参数,生成指定层的运算参数序列,运算参数序列中的每个运算参数包括设计参数的与输出通道集合序列中相应的输出通道集合相对应的一个或多个核。
在一个实施例中,数据后处理分析器还可以被配置为调整输出通道集合序列,使得调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在数据后处理中使用的高速缓冲存储器的单个缓存行的容量。
根据本公开的另一方面,还提供了一种对神经网络数据进行后处理的方法。该方法可以包括:确定神经网络的指定层的第一输出特征数据中的至少一个第一数据点,第一输出特征数据是通过分别使用上述对神经网络数据进行预处理的方法生成的运算参数序列中的每个运算参数对指定层的输入特征数据执行指定层的运算而获得的指定层的输出特征数据中的一个;将第一输出特征数据中在至少一个第一数据点处的各个输出通道上的数据以按照高速缓冲存储器的缓存行对齐的方式读取到高速缓冲存储器中;以及针对至少一个第一数据点的数据执行数据后处理。
在一个实施例中,至少一个第一数据点中的每个第一数据点的置信度大于或等于第一输出特征数据中任何其他数据点的置信度。在一个实施例中,至少一个第一数据点中的第一数据点的数量可以小于或等于4个。
在一个实施例中,对神经网络数据进行后处理的方法还可以包括:根据至少一个第一数据点在第一输出特征数据中的位置,确定指定层的第二输出特征数据中的对应位置处的至少一个第二数据点,第二输出特征数据是指定层的输出特征数据中的另一个;将第二输出特征数据中在至少一个第二数据点处的各个输出通道上的数据以按照缓存行对齐的方式读取到高速缓冲存储器中;以及针对至少一个第二数据点的数据继续执行数据后处理。在一个实施例中,该方法还可以包括:在将数据读取到高速缓冲存储器中之前,清除高速缓冲存储器中的数据。
根据本公开的另一方面,还提供了一种计算机可读存储介质,在其上存储的程序指令在被执行时执行上述对神经网络数据进行后处理的方法。
根据本公开的另一方面,还提供了一种对神经网络数据进行后处理的装置。该装置可以包括:一个或多个处理器,被配置为至少执行上述对神经网络数据进行后处理的方法。
根据本公开的另一方面,还提供了一种对神经网络数据进行后处理的装置。该装置可以包括:数据过滤器,被配置为至少确定神经网络的指定层的第一输出特征数据中的至少一个第一数据点,第一输出特征数据是通过分别使用上述对神经网络数据进行预处理的方法生成的运算参数序列中的每个运算参数对指定层的输入特征数据执行指定层的运算而获得的指定层的输出特征数据中的一个;数据存取控制器,被配置为至少将第一输出特征数据中在至少一个第一数据点处的各个输出通道上的数据以按照高速缓冲存储器的缓存行对齐的方式读取到高速缓冲存储器中;以及处理器,被配置为至少针对至少一个第一数据点的数据执行数据后处理。
在一个实施例中,数据过滤器还可以被配置为根据至少一个第一数据点在第一输出特征数据中的位置,确定指定层的第二输出特征数据中的对应位置处的至少一个第二数据点,第二输出特征数据是指定层的输出特征数据中的另一个;数据存取控制器还可以被配置为将第二输出特征数据中在至少一个第二数据点处的各个输出通道上的数据以按照缓存行对齐的方式读取到高速缓冲存储器中;并且处理器还可以被配置为针对至少一个第二数据点的数据继续执行数据后处理。
通过根据本公开的实施例的对神经网络数据进行预处理和后处理的方法和装置,至少用于数据后处理的处理器能够在数据后处理过程中高效地访问有效数据,并且能够从总体上显著地提升处理性能并节约带宽消耗。
附图说明
图1示出根据本公开的实施例的神经网络的输出特征数据的示例。
图2示出根据本公开的实施例的神经网络的经填充的输出特征数据的示例。
图3示出根据本公开的实施例的神经网络的输出特征数据的存储方式的示例。
图4示出根据本公开的实施例的对神经网络数据进行预处理的示例方法的流程图。
图5示出根据本公开的实施例的数据后处理的处理程序及相应的处理流程的流程图的示例。
图6示出根据本公开的实施例的数据后处理的顶点活动网的示例。
图7示出根据本公开的实施例的调整输出通道集合序列的示例。
图8示出根据本公开的实施例的调整输出通道集合序列的示例。
图9示出根据本公开的实施例的指定层的原始设计参数的示例。
图10示出根据本公开的实施例的指定层的运算参数序列的示例。
图11示出根据本公开的实施例的所生成的输出特征数据的存储方式的示例。
图12示出根据本公开的实施例的对神经网络数据进行后处理的示例方法的流程图。
图13示出根据本公开的实施例的对神经网络数据进行后处理的示例。
图14示出根据本公开的实施例的处理神经网络数据的系统的示例。
具体实施方式
在本文中,将以卷积神经网络为例来描述根据本公开的实施例的方法和装置。然而,根据本公开的实施例的方法和装置还可以应用于具有级联或多层结构且输出数据可能包括多个通道的任何其他类型的人工神经网络或深度学习模型或机器学习模型,而不局限于卷积神经网络。
卷积神经网络输出的特征数据或特征图可以与多个通道相关联,每个通道上的数据可以表征提供给卷积神经网络的输入特征数据(例如,图像、视频、音频、文本等)在某个方面的特征,例如边界、纹理等。
如图1所示,由卷积神经网络的某一层(例如,输出层)输出的特征数据或特征图可以表示为具有一定高度、宽度和深度(对应于各个通道)的长方体。
在图1的示例中,输出特征数据的高度、宽度和深度(或通道数量)分别为5(高度坐标分别为H0~H4)、5(宽度坐标分别为W0~W4)和5(深度坐标或通道索引分别为C0~C4)的特征数据或特征图,其中,每个小立方体分别表示构成该特征数据的一个数据点或数据位。相应地,特征数据中的每个数据点或数据位可以与一个三维坐标或索引相关联,用于标识或表示该数据点或数据位在特征数据的长方体中的高度、宽度和深度(或所在的通道)。例如,图1的示例中的阴影处的数据点的相应坐标可以是(H1,W0,C0)。
出于硬件成本、计算效率等各方面的考虑,用于神经网络运算的专用硬件加速器通常设计有很多对齐的通道。在所计算出的或将计算出的特征数据在高度、宽度和通道数量中的一个或多个方面不满足预期的对齐要求的情况下,输出特征数据可以在高度、宽度和通道数量中的一个或多个维度上被填充以使经填充的输出特征数据能够满足预期的对齐要求。
如图2所示,例如根据用于执行卷积神经网络中的运算的硬件设计,图1的示例中的输出数据可以被填充为高度、宽度和深度分别为5(高度坐标分别为H0~H4)、8(宽度坐标分别为W0~W7)和8(深度坐标或通道索引分别为C0~C7),其中,W5~W7表示用于使通道对齐的填充位的宽度坐标,C5~C7表示用于使通道对齐的填充位的深度坐标或通道索引,填充的部分对应于图2中用粗线包围的部分。
在图1和图2的示例中,填充后的输出特征数据包括5*8*8=320个数据点,而其中的有效数据点只有5*5*5=125个,有效数据的比率约为125/320≈40%。这意味着,例如,在针对该输出特征数据执行的数据后处理的过程中,读取与高度坐标H0相关联的所有数据点的数据将浪费大约60%的带宽。
另外,虽然输出特征数据在实际的物理存储器中在整体上可能分配有一块连续的存储空间,但是输出特征数据中的每个通道上的数据在该存储空间中可能不是连续存放的。例如,对于图2的示例中的输出特征数据,其在实际的物理存储器中的存储形式可能如图3所示,其中,正面为阴影的小立方体对应于经填充的输出特征数据中的填充的数据点。
在图3的示例中,假设用于数据后处理的高速缓冲存储器的缓存行的长度为16并且数据按照4个字节(即,32个比特)对齐,则图3的示例中的与C0和H0相关联的所有数据跨越缓存行的地址对齐边界。在数据后处理中,在需要读取和处理与C0和H0相关联的所有数据的情况下,处理器需要将四条数据(即,图3中第一行至第四行的数据)读取到四个缓存行中,而不是仅将两条数据(即,图3中的第一行和第三行的数据)读取到两个缓存行中,由此至少带来带宽和时间方面的额外开销。
图4示出根据本公开的实施例的对神经网络数据进行预处理的方法。通过在执行神经网络中的运算之前,对神经网络中的需要将输出特征数据输出到神经网络外部的某个层的数据执行该数据预处理方法,使该层能够生成并输出具有期望的优化结构和次序的一个或多个特征数据,来代替原本的一个输出特征数据,并且在针对神经网络的输出结果的数据后处理中使用这些具有优化结构和次序的特征数据,从而提高带宽利用率,减小或消除额外的时间开销,并在整体上提高数据后处理的性能。
如图4所示,根据本公开的实施例的对神经网络数据进行预处理的方法可以包括步骤S110和步骤S120。在步骤S110中,可以根据要对神经网络的指定层的各个输出通道上的数据执行的数据后处理,确定指定层的输出通道集合序列,其中,输出通道集合序列中的每个输出通道集合可以包括指定层的一个或多个输出通道。然后,在步骤S120中,可以根据指定层的设计参数和在步骤S110中获得的输出通道集合序列,生成指定层的运算参数序列,其中,运算参数序列中的每个运算参数包括设计参数的与输出通道集合序列中相应的输出通道集合相对应的一个或多个核。
根据不同的实施例,根据本公开的实施例的对神经网络数据进行预处理的方法中所涉及的指定层可以是神经网络的输出层,也可以是神经网络中需要将相应的输出特征数据输出到神经网络外部并执行相应的数据后处理的任何隐藏层或中间层,甚至在需要将输入层的输出特征数据输出到神经网络外部并执行相应的数据后处理的情况下也可以是神经网络的输入层。如果神经网络中的多个层的相应的输出特征数据均需要输出到神经网络外部并执行相应的数据后处理,则可以分别针对这些层中的每一层的数据执行根据本公开的实施例的数据预处理方法。
在步骤S110中,可以根据不同的原则、以不同的方式来确定指定层的输出通道的输出通道集合序列。例如,可以由神经网络的设计人员根据指定层的各个输出通道在相应的数据后处理中的依赖关系、处理的先后次序、与神经网络的任务背景(例如,边界标注、对象识别等)的相关程度等对指定层的各个输出通道进行分组,然后对所获得的各个分组进行排序,其中,每个分组可以被称为输出通道集合,并且两个输出通道集合可以具有交集,即,某个输出通道可以被复制并同时分配到两个分组中,或者可以同时与两个分组相关联。
例如,假设神经网络要执行的任务是在图3的示例中的存储的输出特征数据来检测输入图像中的人,并且根据神经网络的设计和/或神经网络的任务事先确定输出通道C1和C2是与该任务有关的关键通道(例如,根据通道C1和C2上的数据能够以更高的准确率确定作为检测对象的人在输入图像中的对应区域),输出通道C0的数据在该检测任务中用于辅助检测,而其他输出通道上的数据对于该检测任务作用不大,则可以初步地确定出包括三个输出通道集合的输出通道集合序列{{C1,C2},{C0},{C3,C4}}。因为数据后处理通常不涉及对用于使通道对齐的填充通道的处理,所以在确定输出通道集合序列时可以不必考虑填充通道C5至C7。
在另外的示例中,假设根据神经网络的设计和/或神经网络的任务事先确定输出通道C0是关键通道,而其他输出通道上的数据作用不大或者无用,则可以初步地确定至少包括输出通道集合{C0}的输出通道集合序列。根据不同的实施例,可以将其他所有的通道作为输出通道集合序列中的另一个输出通道集合并,也可以不考虑这些通道,使得输出通道集合序列只包括输出通道集合{C0}。
在一个实施例中,在步骤S110中,可以根据与神经网络的指定层的输出数据相关联的数据后处理的处理流程来确定指定层的输出通道集合序列。
图5中的垂直虚线的左侧示出在神经网络的设计阶段已经确定的要针对图1至图3中的示例中的输出特征数据执行的数据后处理的示例程序。例如,可以通过任何适当的代码分析技术来分析数据后处理的程序代码,以确定数据后处理的处理流程中的一个或多个程序块,其中,每个程序块可以包括与指定层的至少一个输出通道相关联的单入单出的指令序列。
例如,包含指令“proc1(C1,C2)”和“con1(C0)”的指令序列具有单个输入或单个执行条件(即,指令“proc1(C1,C2)”的输入)和单个输出(即,“con1(C0)”的输出)。因此,可以将该指令序列作为根据本公开的实施例的一个程序块B1。
指令“proc2(C1,C3,C4)”的执行条件为“con1(C0)”的输出结果为“真”,而“proc3(C0,C1,C2,C3,C4)”的执行条件为“con1(C0)”的输出结果为“假”,并且指令“proc2(C1,C3,C4)”和“proc3(C0,C1,C2,C3,C4)”具有不同的输出,换句话说,指令“proc2(C1,C3,C4)”和“proc3(C0,C1,C2,C3,C4)”处于不同的处理分支上,并且不可能同时执行。相应地,包括指令“proc2(C1,C3,C4)”和“proc3(C0,C1,C2,C3,C4)”的指令序列具有两个输入和两个输出。因此,指令“proc2(C1,C3,C4)”和“proc3(C0,C1,C2,C3,C4)”分别包括在两个程序块B2和B3中,而不能包括在一个程序块中。类似地,还可以进一步地确定出另外的程序块B4和B5。
然后,可以确定所获得的程序块的序列。
在一个实施例中,可以先确定出数据后处理的处理流程图。例如,对于图5中的垂直虚线的左侧所示的程序指令,根据本公开的实施例的数据后处理的处理流程图可以如图5中的垂直虚线的右侧所示,其中,“NOP”表示与指定层的输出通道无关的指令序列或者具有多个输入和/或多个输出的指令序列(例如,与流程/分支控制相关的程序关键词或指令序列)。
然后,可以根据所获得的处理流程图,例如通过剪裁和调整,确定以每个程序块为顶点的顶点活动网。在一个实施例中,可以从例如如如图5中的垂直虚线的右侧所示的处理流程图中去掉所有的连接两个“NOP”块的箭头或连线,然后使用连线替换所有的“NOP”块,从而获得例如如图6中的箭头A的左侧所示的顶点活动网。
在另外的实施例中,可以采用任何适当的程序分析技术或编译技术直接从程序代码生成根据本公开的实施例的顶点活动图。
在与数据后处理的处理流程相关联的顶点活动网中,每个顶点分别对应于先前确定的每个程序块,顶点之间的有向箭头(即,顶点活动网的边)可以代表程序块之间的优先关系,即,箭头的起点处的程序块的执行结果可以作为该箭头的终点处的程序块的执行的先决条件,或者箭头的起点处的程序块先于该箭头的终点处的程序块而被执行。
然后,可以对顶点活动网中的各个顶点进行例如拓扑排序。
根据本公开的实施例的顶点活动网中的每个顶点(即,程序块)与神经网络的指定层的一个或多个输出通道相关联。例如,在图6的示例中,顶点B1与通道C0、C1和C2相关联,顶点B5与通道C0、C2和C3相关联。于是,每个顶点可以使用相关联的输出通道集合来替换。例如,可以输出通道集合S1={C0,C1,C2}来作为顶点替换B1,使用出通道集合S2={C1,C1,C4}来作为顶点替换B2,以此类推。由此,根据所获得的程序块序列,可以确定对应的输出通道集合序列。根据不同的实施例,输出通道集合序列中的每个输出通道集合可以是有序集合,也可以是无序集合。
在另外的实施例中,也可以先根据以程序块为顶点的顶点活动图生成以输出通道集合为顶点的有向无环图,然后对有向无环图中的各个顶点进行例如拓扑排序,从而获得输出通道集合序列。
在上述的实施例中,可以采用拓扑排序对以程序块为顶点的顶点活动图或以输出通道集合为顶点的有向无环图中的各个顶点进行排序。例如,可以通过迭代地执行以下步骤来获得程序块序列或输出通道集合序列:如果存在入度为0(即,没有任何前驱节点,或者说,不作为任何箭头的终点)的顶点,则输出该顶点,并且删除该顶点以及以该顶点为起点的所有箭头(即,该顶点的出边)。
应当意识到,上述拓扑排序的结果可能根据所采用的顶点遍历原则不同而不同。例如,对于图6中的示例,通过拓扑排序获得的输出通道集合序列可能是S1->S2->S3->S4->S5或者S1->S3->S2->S4->S5。
在另外的实施例中,也可以通过其他的排序方式来获得输出通道集合序列。例如,在一个实施例中,可以采用深度优先的排序方式来获得程序块序列或输出通道集合序列。例如,对于图6中的示例,采用深度优先的排序方式获得的输出通道集合序列可能是S1->S2->S4->S5->S3或者S1->S3->S4>S5->S2。
在另外的实施例中,还可以根据例如顶点活动图或有向无环图中的每个顶点对应的输出通道集合与神经网络的任务的相关性等,对图中的每个顶点和/或边设置相应的权重,然后根据权重或者结合权重对图中的各个顶点进行排序。例如,如果通过分析而预测程序块B2被执行的可能性高于程序块B3,则可以分配给程序块B2的权重可以高于程序块B3,使得例如在拓扑排序的结果中,具有更高权重的程序块B2可以位于程序块B3之前,从而获得输出通道集合序列S1->S2->S3->S4->S5。
根据数据后处理中所使用的高速缓冲存储器的缓存行的容量或长度,可能需要调整所获得的输出通道集合序列,使得调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在高速缓冲存储器的单个缓存行的容量。
根据不同的实施例,调整输出通道集合序列的方式可以包括但不限于下列中的一个或多个:
-将输出通道集合序列中的某个输出通道集合拆分成至少两个部分;
-合并输出通道集合序列中的相邻的两个或多个输出通道集合;
-删除输出通道集合序列中的某个输出通道集合,删除的输出通道集合是输出通道集合序列中的另一个输出通道集合(例如,与删除的输出通道集合相邻的另一个输出通道集合)的子集;
-删除输出通道集合序列中的某个输出通道集合中的一个或多个输出通道,所删除的一个或多个输出通道包括在与删除的输出通道集合相邻的另一个输出通道集合(例如,与删除的输出通道集合相邻的另一个输出通道集合)中;以及
-从输出通道集合序列中相邻的一个输出通道集合和另一个输出通道集合中删除一个或多个相同的输出通道,并且将所删除的一个或多个相同的输出通道作为新的输出通道集合插入到输出通道集合序列中,例如,插入到前述的一个输出通道集合或另一个输出通道集合之前或之后。
可以迭代地调整输出通道集合序列,并且每次迭代中可以仅针对作为前一次调整的结果的输出通道集合序列中的一个或多个输出通道集合,直至调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在高速缓冲存储器的单个缓存行的容量为止。
另外,可以建立诸如马尔科夫决策过程模型等决策模型,并根据所建立的决策模型来选择调整方式和调整方式的执行次序,以便进一步减少数据的存取次数和提供高速缓冲存储器的利用率。
例如,假设单个缓存行的容量为16个比特,特征数据中的每个数据点的数据占用4个比特,则对于图6的示例中的输出通道集合S3中的数据量(4*5=20)大于单个缓存行的容量,因此需要调整输出通道集合序列。
对于图6的示例,假设所获得的初始输出通道集合序列为S1->S2->S3->S4->S5,其中,S1和S2之间存在交集,S1、S2、S4和S5均是S3的子集,S4是S5的子集,则根据所采用的调整方式以及调整方式的执行次序,可以获得不同的调整后的输出通道集合序列。
例如,如图7所示,可以先从S3中删除同样包含在S4中的C2和C3,并获得S3’={C0,C1,C4},然后删除作为S5的子集的S4,由此获得调整后的输出通道集合序列S1->S2->S3’->S5。然后,根据需要,可以继续采用其他调整方式对输出通道集合序列S1->S2->S3’->S5进行进一步的调整。
在另外的示例中,如图8所示,可以先将S3拆分成两个部分S31={C0,C1,C2,C3}和S32={C4},然后删除作为S5的子集的S4以及作为S31的子集的S5,由此获得调整后的输出通道集合序列S1->S2->S31->S32。然后,根据需要,可以继续采用其他调整方式对输出通道集合序列S1->S2->S31->S32进行进一步的调整。
在获得指定层的输出通道集合序列之后,如图4所示的方法可以继续到步骤S120。
对于卷积神经网络,为了在指定层获得在指定的输出通道上的输出特征数据,指定层的原始的设计参数需要至少包括与指定层的输出通道一一对应的一个或多个核。例如,如图9所示,为了获得图1的示例中的输出特征数据,指定层的设计参数可以包括五个核K0至K4,其中,使用核K0对指定层的输入特征数据INF执行指定层的运算(例如卷积运算)CONV获得输出特征数据在输出通道C0上的数据(对应于图9中被标记为C0的一排数据块),类似地,K1至K4分别对应于输出特征数据的输出通道C1至C4。为了简洁,在图9中未示出针对输出特征数据的填充。
在步骤S120中,可以根据指定层的原始的设计参数和在步骤S110中获得的输出通道集合序列,生成指定层的运算参数序列。
例如,假设在步骤S110中,根据数据后处理(还可能结合神经网络的设计和/或任务等方面),确定与图1的示例相关联的指定层的输出通道集全序列为{{C0},{C1,C2,C3,C4}},则对于图9的示例中的包括核K0至K4的设计参数,可以根据输出通道集全序列{{C0},{C1,C2,C3,C4}},相应地确定核集合序列或运算参数序列{{K0},{K1,K2,K3,K4}}。
在通过步骤S120确定出指定层的运算参数序列之后,图4所示的根据本公开的实施例的对神经网络数据进行预处理的方法可以结束。
在之后的指定层的实际运算中,原本设计的、例如如图9所示的使用一个运算参数(包括K1至K4五个核)并获得一个输出特征数据的运算转换成例如图10所示的、分别使用两个运算参数(一个对应于运算参数序列{{K0},{K1,K2,K3,K4}}中的{K0},另一个对应于运算参数序列{{K0},{K1,K2,K3,K4}}中的{K1,K2,K3,K4})并获得两个输出特征数据OUTF1和OUTF2。另外,关于OUTF1,图10还示出了为了使通道对齐而填充(例如,通过硬件自动填充)的通道C5至C7。为了简洁,在图10中未示出针对输出特征数据在宽度上的填充。
在实际的物理存储器中,可以分别针对输出特征数据OUTF1和OUTF2分配两块连续的存储空间,并且在每个存储空间中的存储情况可以例如如图11所示。对比图3所示的存储方式,如图11所示的存储方式的存储效率更高;并且在数据后处理中,处理器将数据读取到高速缓冲存储器所需的处理时间更少,总线带宽的利用率更高,能够显著地提高数据后处理的性能。
根据一个实施例,对于通过使用根据图4所示的示例方法获得的运算参数序列中的运算参数对指定层的输入特征数据执行指定层的运算而获得的输出特征数据,可以使用如图12所示的示例方法对其进行后处理。
如图12所示,根据本公开的实施例的对神经网络数据进行后处理的示例方法可以包括步骤S210、S220和S230。
在步骤S210中,可以确定该输出特征数据中的至少一个数据点,其中,所确定的至少一个数据点中的每个数据点的置信度可以大于或等于该输出特征数据中的任何其他数据点的置信度。例如,对于小型的神经网络,在步骤S210中所选择的这样的数据点的数量可以小于或等于4个。另外,所选择的这样的数据点的数量也可以大于或等于某个数量,例如,2个。在其他规模的神经网络中,这样的数据点的数量也可以具有其他任何适当的范围,例如,3个以下,5个以下,6个以下,甚至是仅一个数点或者全部的数据点。
然后,可以在步骤S220中,将该输出特征数据在确定的至少一个数据点处的各个输出通道上的数据以按照高速缓冲存储器的缓存行对齐的方式读取到高速缓冲存储器中。
然后,可以在步骤S230中,针对该输出特征数据在确定的至少一个数据点处的各个输出通道上的数据执行预定的数据后处理。
在另一个实施例中,可以先按照缓存行对齐的方式读取该输出特征数据中的部分数据。然后,在确定所读取的这一部分数据满足计算要求的情况下,根据置信度保留预定数量的数据点处的数据。然后,针对所读取的这一部分数据(例如,该部分数据中在保留的数据点处的数据)执行预定的数据后处理。然后,在尚未处理完该输出特征数据下,可以重复前述步骤,以针对该输出特征数据中的另一个(例如,下一个)部分数据执行处理。
然后,如果使用运算参数序列中的运算参数在指定层生成了多个输出特征数据,则在针对前一个输出特征数据执行完步骤S210至S230中的操作之后,可以根据所确定的至少一个数据点在前一个输出特征数据中的位置,确定下一个输出特征数据中的对应位置处的至少一个数据点,然后将下一个输出特征数据中在所确定的数据点处的各个输出通道上的数据以按照缓存行对齐的方式读取到高速缓冲存储器中,并针对所读取的数据继续执行预定的数据后处理。
例如,如图13所示,如果在针对前一个输出特征数据OUTF1执行数据后处理的过程中,确定两个数据点(H1,W1)和(H3,W3),则针对输出特征数据OUTF1的数据后处理可以针对(H1,W1,C0)和(H3,W3,C0)执行,相应读取的数据可以包括(H1,W1,C0)、(H1,W1,C5)、(H1,W1,C6)、(H1,W1,C7)、(H3,W3,C0)、(H3,W3,C5)、(H3,W3,C6)和(H3,W3,C7)。
随后,在针对下一个输出特征数据OUTF2执行数据后处理时,可以根据针对输出特征数据OUTF1确定的两个数据点(H1,W1)和(H3,W3),确定在输出特征数据OUTF2中的两个数据点(H1,W1)和(H3,W3)。然后,可以按照缓存行对齐的方式读取(H1,W1,C1)、(H1,W1,C2)、(H1,W1,C3)、(H1,W1,C4)、(H3,W3,C1)、(H3,W3,C2)、(H3,W3,C3)和(H3,W3,C4),并针对所读取的这些数据执行预定的数据后处理。
结合图5的示例,图12所示的示例方法中的步骤S210和S220可以显著地减少计算数量。例如,对于图13的示例,循环次数可以从原本的5*5=25次减少到4次,从而能够显著地提升处理性能。从这个角度来看,图12所示的示例方法中的步骤S210和S220实际上可以被视为在执行数据后处理之前的另一预处理操作。
另外,在将数据读取到高速缓冲存储器中之前,可以清除高速缓冲存储器中的数据,以确保数据的一致性。
图14示出根据本公开的实施例的处理神经网络数据的系统的示例。该系统可以包括对神经网络数据进行预处理的装置PRE、用于执行神经网络运算的装置AIC(例如,专用的人工智能芯片或者诸如通用计算机和手机这样的具有相应运算能力的通用计算装置)、用于存储装置AIC的输出结果的存储器MEM以及对神经网络数据进行后处理的装置POST。在另外的实施例中,该系统还可以包括另外的装置或系统,用于基于装置POST的输出结果执行相应的处理,例如执行识别或检测任务等。
根据一个实施例,装置PRE可以至少包括例如通过总线连接的数据后处理分析器ANA和参数转化器TRA。根据不同的实施例,装置PRE可以作为神经网络的编译器或者作为神经网络的编译器的一部分。
数据后处理分析器ANA可以包括一个或多个处理器,并且可以被配置为分析要对神经网络的指定层的各个输出通道上的数据执行的数据后处理COD,并根据数据后处理COD来确定指定层的输出通道集合序列。
参数转化器TRA也可以包括一个或多个处理器,并且可以被配置为根据来自数据后处理分析器ANA的输出通道集合序列和指定层的设计参数,来生成指定层的运算参数序列。
另外,数据后处理分析器ANA还可以被配置为调整所生成的初始输出通道集合序列,使得调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在装置POST中使用的高速缓冲存储器CACH的单个缓存行的容量。
根据另一个实施例,装置PRE可以至少包括一个或多个处理器。所包括的一个或多个处理器可以被配置为至少执行根据本公开的实施例的对神经网络数据进行预处理的方法(例如,如图4所示的方法)。
根据本公开的实施例,装置AIC可以被设计为支持根据装置PRE的输出来调整指定层的运算参数,并且能够支持在指定层输出多个输出特征数据。
根据一个实施例,装置POST可以至少包括例如通过总线连接的数据过滤器FLT、数据存取控制器MAC、处理器PROC。在图14的示例中,装置POST的内部还包括高速缓冲存储器CACH。在另外的实施例中,装置POST可以作为用于执行神经网络的任务的装置或系统的一部分,或者与装置AIC合并,或者作为装置AIC的一部分。相应地,高速缓冲存储器CACH也可以是在装置POST外部,并且例如能够被装置POST、装置AIC等共用。
数据过滤器FLT可以包括一个或多个处理器,或者作为处理器PROC的一部分,并且可以被配置为至少确定神经网络的指定层的一个输出特征数据中的至少一个数据点。如前文所述,可以根据各个数据点的置信度来选择或确定至少一个数据点。
数据存取控制器MAC可以被配置为至少将输出特征数据中在至少一个数据点处的各个输出通道上的数据以按照高速缓冲存储器CACH的缓存行对齐的方式读取到高速缓冲存储器CACH中。
处理器PROC可以是通用或专用的处理器,并且可以被配置为至少针对读取到CACH中的至少一个数据点的数据执行数据后处理COD。
数据过滤器FLT、数据存取控制器MAC和处理器PROC可以被配置为支持针对神经网络的指定层的多个输出特征数据顺序地或者并行地执行前述相应的处理。
根据另一个实施例,装置POST可以至少包括一个或多个处理器。所包括的一个或多个处理器可以被配置为至少执行根据本公开的实施例的对神经网络数据进行后处理的方法(例如,如图12所示的方法)。
根据不同的实施例,装置PRE、AIC、MEM和POST之间可以通过总线、网络、数据线等不同的线路、以有线或无线的方式连接或耦接到一起。
图14中的连线的箭头可以表示系统中的指令和/或数据的主要流向,但是根据本公开的实施例的系统以及装置PRE、AIC和POST中的任何一个或多个不局限于图14所示的指令和/或数据的流向。另外,图14中的ANA与COD之间以及PROC与COD之间的连线表示ANA和PROC需要取得数据后处理COD的程序文本、代码指令、流程图、中间指令等,而不代表ANA与COD之间以及PROC与COD之间必然存在相应的物理连接。
在另外的实施例中,装置PRE、AIC和POST中的任何一个还可以包括用于临时或永久性地保存数据的存储器。存储器可以包括各种形式的计算机可读写存储介质,例如易失性存储器和/或非易失性存储器。易失性存储器例如可以包括随机存取存储器(RAM)和/或高速缓冲存储器等。非易失性存储器例如可以包括只读存储器(ROM)、硬盘、闪速存储器等。
在一个实施例中,可以独立于装置PRE、AIC和POST中的任何一个而提供一个计算机可读存储介质,在其上存储有程序指令,该程序指令在被执行时执行上述对神经网络数据进行预处理的方法,例如,如图4所示的方法;并且可以提供另一个计算机可读存储介质,在其上存储有程序指令,该程序指令在被执行时执行上述对神经网络数据进行后处理的方法,例如,如图12所示的方法。在另外的实施例中,也可以在独立于装置PRE、AIC和POST中的任何一个的同一个计算机可读存储介质上同时存储对神经网络数据进行预处理的方法和对神经网络数据进行后处理的方法。根据不同的实施例,这样的计算机可读写存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合,例如可以包括只读存储器(ROM)、硬盘、闪速存储器等。在一个实施例中,上述的计算机可读存储介质可以是非临时性或临时性的计算机可读的或计算机可读写的存储介质。
在一个实施例中,装置PRE、装置AIC和装置POST中的每一个可以分别配置和提供。例如,如前文所述,装置PRE可以作为神经网络的编译器的一部分,装置POST可以作为特定于任务的处理芯片的一部分或者与装置AIC一起作为智能芯片的一部分。
已经描述了本公开的一些实施例,但是这些实施例仅作为示例而呈现,而不打算限制本公开的范围。实际上,在本文中所描述的方法和装置可以采用多种其他形式来实施。另外,可以在不脱离本公开的范围的情况下,在本文中所描述的方法和装置的形式上做出各种省略、替换和改变。
Claims (22)
1.一种对神经网络数据进行预处理的方法,包括:
根据要对神经网络的指定层的各个输出通道上的数据执行的数据后处理,确定所述指定层的输出通道集合序列,所述输出通道集合序列中的每个输出通道集合包括所述指定层的一个或多个输出通道;
调整所述输出通道集合序列,使得调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在所述数据后处理中使用的高速缓冲存储器的单个缓存行的容量;以及
根据所述输出通道集合序列和所述指定层的设计参数,生成所述指定层的运算参数序列,所述运算参数序列中的每个运算参数包括所述设计参数的与所述输出通道集合序列中相应的输出通道集合相对应的一个或多个核。
2.根据权利要求1所述的方法,其中,确定所述输出通道集合序列包括:
确定所述数据后处理的处理流程中的一个或多个程序块,每个程序块包括与所述指定层的至少一个输出通道相关联的单入单出的指令序列;
确定所述一个或多个程序块的序列;以及
根据所述一个或多个程序块的序列,确定所述输出通道集合序列。
3.根据权利要求2所述的方法,其中,确定所述一个或多个程序块的序列包括:
根据所述数据后处理的处理流程,确定以所述一个或多个程序块中的每个程序块为顶点的顶点活动网;以及
基于所述顶点活动网对所述一个或多个程序块进行拓扑排序。
4.根据权利要求2所述的方法,其中,分别与所述一个或多个程序块中的每个程序块相关联的每个输出通道的集合分别对应于所述输出通道集合序列中的一个输出通道集合。
5.根据权利要求1所述的方法,其中,调整所述输出通道集合序列包括:
将所述输出通道集合序列中的第一输出通道集合拆分成至少两个部分。
6.根据权利要求1所述的方法,其中,调整所述输出通道集合序列包括:
合并所述输出通道集合序列中的相邻的第一输出通道集合和第二输出通道集合。
7.根据权利要求1所述的方法,其中,调整所述输出通道集合序列包括:
删除所述输出通道集合序列中的第一输出通道集合,所述第一输出通道集合是所述输出通道集合序列中的第二输出通道集合的子集。
8.根据权利要求7所述的方法,其中,所述第二输出通道集合在所述输出通道集合序列中与所述第一输出通道集合相邻。
9.根据权利要求1所述的方法,其中,调整所述输出通道集合序列包括:
删除所述输出通道集合序列中的第一输出通道集合中的一个或多个输出通道,所删除的一个或多个输出通道包括在所述输出通道集合序列中与所述第一输出通道集合相邻的第二输出通道集合中。
10.根据权利要求1所述的方法,其中,调整所述输出通道集合序列包括:
从所述输出通道集合序列中相邻的第一输出通道集合和第二输出通道集合中删除一个或多个相同的输出通道;以及
将所删除的一个或多个相同的输出通道作为新的输出通道集合插入到所述输出通道集合序列中。
11.一种计算机可读存储介质,在其上存储有程序指令,所述程序指令在被执行时执行根据权利要求1至10中的任一项所述的方法。
12.一种对神经网络数据进行预处理的装置,包括:
一个或多个处理器,被配置为至少执行根据权利要求1至10中的任一项所述的方法。
13.一种对神经网络数据进行预处理的装置,包括:
数据后处理分析器,被配置为根据要对神经网络的指定层的各个输出通道上的数据执行的数据后处理,确定所述指定层的输出通道集合序列,所述输出通道集合序列中的每个输出通道集合包括所述指定层的一个或多个输出通道;所述数据后处理分析器还被配置为调整所述输出通道集合序列,使得调整后的输出通道集合序列中的每个输出通道集合的数据量小于或等于在所述数据后处理中使用的高速缓冲存储器的单个缓存行的容量;以及
参数转化器,被配置为根据所述输出通道集合序列和所述指定层的设计参数,生成所述指定层的运算参数序列,所述运算参数序列中的每个运算参数包括所述设计参数的与所述输出通道集合序列中相应的输出通道集合相对应的一个或多个核。
14.一种对神经网络数据进行后处理的方法,包括:
确定神经网络的指定层的第一输出特征数据中的至少一个第一数据点,所述第一输出特征数据是通过分别使用根据权利要求1至10中的任一项所述的方法生成的运算参数序列中的每个运算参数对所述指定层的输入特征数据执行所述指定层的运算而获得的所述指定层的输出特征数据中的一个;
将所述第一输出特征数据中在所述至少一个第一数据点处的各个输出通道上的数据以按照高速缓冲存储器的缓存行对齐的方式读取到所述高速缓冲存储器中;以及
针对所述至少一个第一数据点的数据执行数据后处理。
15.根据权利要求14所述的方法,其中,所述至少一个第一数据点中的每个第一数据点的置信度大于或等于所述第一输出特征数据中任何其他数据点的置信度。
16.根据权利要求14所述的方法,其中,所述至少一个第一数据点中的第一数据点的数量小于或等于4个。
17.根据权利要求14所述的方法,还包括:
根据所述至少一个第一数据点在所述第一输出特征数据中的位置,确定所述指定层的第二输出特征数据中的对应位置处的至少一个第二数据点,所述第二输出特征数据是所述指定层的输出特征数据中的另一个;
将所述第二输出特征数据中在所述至少一个第二数据点处的各个输出通道上的数据以按照所述缓存行对齐的方式读取到所述高速缓冲存储器中;以及
针对所述至少一个第二数据点的数据继续执行所述数据后处理。
18.根据权利要求14至17中的任一项所述的方法,还包括:
在将数据读取到所述高速缓冲存储器中之前,清除所述高速缓冲存储器中的数据。
19.一种计算机可读存储介质,在其上存储有程序指令,所述程序指令在被执行时执行根据权利要求14至18中的任一项所述的方法。
20.一种对神经网络数据进行后处理的装置,包括:
一个或多个处理器,被配置为至少执行根据权利要求14至18中的任一项所述的方法。
21.一种对神经网络数据进行后处理的装置,包括:
数据过滤器,被配置为至少确定神经网络的指定层的第一输出特征数据中的至少一个第一数据点,所述第一输出特征数据是通过分别使用根据权利要求1至10中的任一项所述的方法生成的运算参数序列中的每个运算参数对所述指定层的输入特征数据执行所述指定层的运算而获得的所述指定层的输出特征数据中的一个;
数据存取控制器,被配置为至少将所述第一输出特征数据中在所述至少一个第一数据点处的各个输出通道上的数据以按照高速缓冲存储器的缓存行对齐的方式读取到所述高速缓冲存储器中;以及
处理器,被配置为至少针对所述至少一个第一数据点的数据执行数据后处理。
22.根据权利要求21所述的装置,其中,
所述数据过滤器还被配置为根据所述至少一个第一数据点在所述第一输出特征数据中的位置,确定所述指定层的第二输出特征数据中的对应位置处的至少一个第二数据点,所述第二输出特征数据是所述指定层的输出特征数据中的另一个;
所述数据存取控制器还被配置为将所述第二输出特征数据中在所述至少一个第二数据点处的各个输出通道上的数据以按照所述缓存行对齐的方式读取到所述高速缓冲存储器中;并且
所述处理器还被配置为针对所述至少一个第二数据点的数据继续执行所述数据后处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810555810.1A CN108875914B (zh) | 2018-06-01 | 2018-06-01 | 对神经网络数据进行预处理和后处理的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810555810.1A CN108875914B (zh) | 2018-06-01 | 2018-06-01 | 对神经网络数据进行预处理和后处理的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108875914A CN108875914A (zh) | 2018-11-23 |
CN108875914B true CN108875914B (zh) | 2021-03-23 |
Family
ID=64336169
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810555810.1A Active CN108875914B (zh) | 2018-06-01 | 2018-06-01 | 对神经网络数据进行预处理和后处理的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108875914B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858622B (zh) * | 2019-01-31 | 2021-03-02 | 瑞芯微电子股份有限公司 | 深度学习神经网络的数据搬运电路和方法 |
CN111914985B (zh) * | 2019-05-10 | 2023-07-04 | 杭州海康威视数字技术股份有限公司 | 深度学习网络模型的配置方法、装置及存储介质 |
CN111191778B (zh) * | 2019-12-31 | 2021-11-30 | 深圳云天励飞技术股份有限公司 | 深度学习网络处理方法、装置与编译器 |
CN111783971B (zh) * | 2020-07-02 | 2024-04-09 | 上海赛昉科技有限公司 | 一种用于深度神经网络的可高度灵活配置的数据后处理器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127297A (zh) * | 2016-06-02 | 2016-11-16 | 中国科学院自动化研究所 | 基于张量分解的深度卷积神经网络的加速与压缩方法 |
CN106203621A (zh) * | 2016-07-11 | 2016-12-07 | 姚颂 | 用于卷积神经网络计算的处理器 |
CN107562705A (zh) * | 2017-07-25 | 2018-01-09 | 努比亚技术有限公司 | 一种数据导出方法、服务端及计算机可读存储介质 |
CN107798382A (zh) * | 2017-11-21 | 2018-03-13 | 北京地平线信息技术有限公司 | 用于适配卷积神经网络中的特征数据的方法和装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10043095B2 (en) * | 2016-10-10 | 2018-08-07 | Gyrfalcon Technology, Inc. | Data structure for CNN based digital integrated circuit for extracting features out of an input image |
-
2018
- 2018-06-01 CN CN201810555810.1A patent/CN108875914B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106127297A (zh) * | 2016-06-02 | 2016-11-16 | 中国科学院自动化研究所 | 基于张量分解的深度卷积神经网络的加速与压缩方法 |
CN106203621A (zh) * | 2016-07-11 | 2016-12-07 | 姚颂 | 用于卷积神经网络计算的处理器 |
CN107562705A (zh) * | 2017-07-25 | 2018-01-09 | 努比亚技术有限公司 | 一种数据导出方法、服务端及计算机可读存储介质 |
CN107798382A (zh) * | 2017-11-21 | 2018-03-13 | 北京地平线信息技术有限公司 | 用于适配卷积神经网络中的特征数据的方法和装置 |
Non-Patent Citations (2)
Title |
---|
Deep Roots: Improving CNN Efficiency with Hierarchical Filter Groups;Yani Ioannou 等;《arXiv》;20161201;第1-15页 * |
基于CNN回归网络的遥感图像颜色自动校正;杜尚尚 等;《计算机与现代化》;20171231(第12期);第28-32,121页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108875914A (zh) | 2018-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321999B (zh) | 神经网络计算图优化方法 | |
CN108875914B (zh) | 对神经网络数据进行预处理和后处理的方法和装置 | |
US20220391678A1 (en) | Neural network model processing method and apparatus, computer device, and storage medium | |
US8400458B2 (en) | Method and system for blocking data on a GPU | |
US11748599B2 (en) | Super-tiling in neural network processing to enable analytics at lower memory speed | |
US11468218B2 (en) | Information theoretic subgraph caching | |
CN113449859A (zh) | 一种数据处理方法及其装置 | |
CN106709503A (zh) | 一种基于密度的大型空间数据聚类算法k‑dbscan | |
Dong et al. | Acorns: A framework for accelerating deep neural networks with input sparsity | |
US10719982B2 (en) | Surface extrction method, apparatus, and non-transitory computer readable storage medium thereof | |
CN112132281A (zh) | 一种基于人工智能的模型训练方法、装置、服务器及介质 | |
JPWO2005098612A1 (ja) | 重要成分優先計算方式ならびに装置 | |
KR20210014561A (ko) | 다수 컨벌루션 윈도우 중의 이미지 데이터를 추출하는 방법, 장치, 기기 및 컴퓨터 판독 가능한 저장매체 | |
US20230076473A1 (en) | Memory processing unit architecture mapping techniques | |
Sun et al. | Efficient tensor cores support in tvm for low-latency deep learning | |
CN114026571A (zh) | 用于并行执行的神经网络操作重新排序 | |
Kim et al. | Optimizing seam carving on multi-GPU systems for real-time content-aware image resizing | |
Stahl et al. | Fused depthwise tiling for memory optimization in tinyml deep neural network inference | |
CN112732638B (zh) | 基于ctpn网络的异构加速系统及方法 | |
US20220343146A1 (en) | Method and system for temporal graph neural network acceleration | |
CN116933841A (zh) | 算子融合方法及装置、电子设备、计算机可读介质 | |
KR102372869B1 (ko) | 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법 | |
CN113672232A (zh) | 程序编译方法和装置 | |
US11714992B1 (en) | Neural network processing based on subgraph recognition | |
US8549456B2 (en) | System and method for circuit design floorplanning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |