CN112784977B - 一种目标检测卷积神经网络加速器 - Google Patents
一种目标检测卷积神经网络加速器 Download PDFInfo
- Publication number
- CN112784977B CN112784977B CN202110055995.1A CN202110055995A CN112784977B CN 112784977 B CN112784977 B CN 112784977B CN 202110055995 A CN202110055995 A CN 202110055995A CN 112784977 B CN112784977 B CN 112784977B
- Authority
- CN
- China
- Prior art keywords
- data
- calculation
- comparison
- memory
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
本发明提出一种目标检测卷积神经网络加速器,包括控制器,片上存储器,多个算术计算单元,多个基于可变电阻式随机存储器的核心计算单元以及比较筛选单元。本发明在基于可变电阻式随机存储器的目标检测卷积神经网络加速器中引入比较筛选单元,通过对目标检测卷积神经网络计算任务进行合理地划分,让比较排序操作和卷积计算能在比较筛选单元和基于可变电阻式随机存储器的核心计算单元上执行,且用比较筛选操作替代比较排序操作得到前N最大的数据,结合4级流水线进一步提升处理效率,无需对数据进行排序,提升计算任务运行效率,使得基于可变电阻式随机存储器的目标检测卷积神经网络加速器更为高效。
Description
技术领域
本发明涉及目标检测卷积神经网络算法领域,尤其涉及一种目标检测卷积神经网络加速器。
背景技术
卷积神经网络被广泛地应用于各个领域,为人们的生活带来了便利。卷积神经网络经过多年的发展,从最初较为简单的手写字符识别应用,逐渐扩展到一些更加复杂的领域,如:行人检测、行为识别、人体姿势识别等。大家逐渐发现,深度网络自主提取的特征要比传统的手工方式提取的特征更加丰富,于是开始尝试在检测任务中使用深度网络来提取特征,例如R-CNN(Regions with CNN feature)。基于深度学习的目标检测算法都是针对通用目标提出的,比如性能更好的两阶段Faster-RCNN系列,速度更快的单阶段YOLO,SSD系列。这些目标检测网络都有一个特点,即是在经典卷积神经网络结构基础上衍生发展的,例如VGG和GoogLeNet。
当这些基于卷积神经网络的目标检测算法被应用于实时性更高,计算任务量更大的场景时,不仅需要高性能低能耗的处理器,而且还需要在较小尺寸的计算硬件上实现,例如无人机和自动驾驶。传统计算芯片(例如CPU,GPU)无法很好地适应卷积神经网络的计算算法和网络结构,导致运算效率不高,内存吞吐量瓶颈等诸多问题。为了减轻或避免当前计算技术中冯·诺依曼体系结构的“瓶颈”,研究者们提出设计基于内存计算的加速器体系结构。新兴非易失性存储器件,包括铁电存储器、磁隧道结存储器、相变存储器和阻变存储器等,可用于构建待机功耗极低的存储器阵列。由于其自身的物理特性,这些新兴非易失性存储器既能实现数据存储功能又能参与数据计算,并且一般都以交叉阵列的形态实现,其输入/输出信号穿过构成行列的节点。交叉阵列能非常自然地执行卷积计算操作,这对于各种基于卷积神经网络的目标检测算法具有重要的意义。由于目标检测卷积神经网络内包含卷积计算和比较排序操作,而已有的基于内存计算的深度神经网络加速器的处理模块并不能有效地在片上完成比较排序操作,存在着大量的片外数据通信量,会影响到目标检测卷积神经网络计算任务的处理效率。
发明内容
本发明的目的在于针对已有工作的不足,提出一种目标检测卷积神经网络加速器,是一种低片外数据通信量的基于可变电阻式随机存储器的目标检测卷积神经网络加速器结构,以解决上述问题。
本发明提供了一种目标检测卷积神经网络加速器,包括控制器,片上存储器,多个算术计算单元,多个基于可变电阻式随机存储器的核心计算单元以及比较筛选单元,所述控制器,用于控制程序进程,数据的读取写回操作,并划分目标检测卷积神经网络计算任务为若干个子任务;所述片上存储器,用于存储片外的输入数据以及目标检测卷积神经网络计算任务运行过程中的中间计算数据,待比较排序的数据和已完成比较筛选操作的数据;所述算术计算单元,用于计算输出计算,即非卷积计算的算术运算;所述基于可变电阻式随机存储器的核心计算单元,用于从片上存储器中读取待进行卷积计算的输入数据和权值矩阵,把权值矩阵存储到基于可变电阻式随机存储器的交叉阵列上,执行目标检测卷积神经网络中的卷积计算并将输出结果存储到片上存储器中;所述比较筛选单元,用于从所述片上存储器读入待比较排序的数据,用比较筛选操作得到所需的前N最大的数,并把比较筛选的结果写回片上存储器,包括地址寄存器,数据寄存器和数据比较器。
根据本发明的基于可变电阻式随机存储器的目标检测卷积神经网络加速器,所述比较筛选单元包括地址寄存器,数据寄存器和数据比较器,比较筛选单元用于执行比较排序任务,通过比较筛选操作替代比较排序操作取出待排序数据中前N个最大的数据。
所述数据寄存器,用于从所述片上存储器中读取存储当前待比较数据。
所述数据比较器,用于从所述数据寄存器内读取待比较数据,比较待比较数据和所述筛选存储器中最小的数据的大小,若待比较数据较大,则从所述地址寄存器内读取所述筛选存储器中最小数据的地址,将待比较数据存入该地址,并重新寻找所述筛选存储器内最小数据的地址存储到地址寄存器中,若所述筛选存储器中最小数据较大,则从数据寄存器中读取下一个待比较数据,包括待比较数据锁存器,比较电路和最小锁存器;
所述筛选存储器,用于存储当前已比较数据中前N个最大的数据的具体数值,其最小数据的存储地址将被存储到地址寄存器。
所述地址寄存器,用于存储所述筛选存储器内最小数值在所述筛选存储器内的地址。
根据本发明的基于可变电阻式随机存储器的目标检测卷积神经网络加速器,所述控制器根据目标检测卷积神经网络的具体结构,把卷积层与非卷积层进行划分,使一个完整的目标检测卷积神经网络计算任务被划分为卷积计算任务和比较排序操作任务,所述控制器向所述基于可变电阻式随机存储器的核心计算单元和所述比较筛选单元发送指令,指定卷积计算任务在所述基于可变电阻式随机存储器的核心计算单元内执行,比较排序操作任务在所述比较筛选单元内执行。
根据本发明的基于可变电阻式随机存储器的目标检测卷积神经网络加速器,所述片上存储器为增强动态随机存储器。
根据本发明的基于可变电阻式随机存储器的目标检测卷积神经网络加速器,所述基于可变电阻式随机存储器的核心计算单元负责执行一个卷积层内的所有卷积计算和激活操作,多个所述基于可变电阻式随机存储器的核心计算单元存储目标检测卷积神经网络中卷积计算的所有权值,完成所有的卷积计算,所述卷积计算包括全连接运算。
根据本发明的基于可变电阻式随机存储器的目标检测卷积神经网络加速器,所述基于可变电阻式随机存储器的目标检测卷积神经网络加速器的4级流水线,包含4个流水段:
第一段流水段是卷积计算流水段,由所述基于可变电阻式随机存储器的核心计算单元完成卷积层,激活层和池化层运算,并把输出结果传输至所述片上存储器;
第二段流水段是比较排序流水段,由比较筛选单元对所述片上存储器内待比较排序的数据进行比较排序操作,并把输出排序结果传输至所述片上存储器;
第三段流水段是全连接计算流水段,由所述基于可变电阻式随机存储器的核心计算单元从所述片上存储器读取第二段流水段的结果进行全连接运算,并把输出目标区域概率和坐标偏移量结果传输至所述片上存储器;
第四段流水线是输出计算流水段,由所述算术计算单元从所述片上存储器读取坐标偏移量,计算输出目标区域的坐标得到最终的目标检测结果并传输至所述片上存储器。
附图说明
图1是本发明一种基于可变电阻式随机存储器的目标检测卷积神经网络加速器结构框图;
图2是本发明一种比较筛选单元结构框图;
图3是本发明一种实施例的目标检测卷积神经网络计算任务划分示意图;
图4是本发明一种实施例的基于可变电阻式随机存储器的目标检测卷积神经网络加速器处理流程图;
图5是本发明一种基于可变电阻式随机存储器的目标检测卷积神经网络加速器的4级流水线示意图;
图6是本发明一种实施例的基于可变电阻式随机存储器的核心计算单元结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,本发明提供了一种基于可变电阻式随机存储器的目标检测卷积神经网络加速器101,包括控制器102,片上存储器103,多个算术计算单元104,多个基于可变电阻式随机存储器的核心计算单元105以及比较筛选单元106。
控制器102,用于控制基于可变电阻式随机存储器的目标检测卷积神经网络加速器101上的程序进程,还包括算术计算单元104,基于可变电阻式随机存储器的核心计算单元105和比较筛选单元106输入输出数据的读取写回操作。如图3所示,控制器把目标检测卷积神经网络里的计算任务划分为4类子任务,即卷积计算,比较排序,全连接计算,输出计算。其中卷积计算包含卷积层,激活层和池化层;比较排序是把卷积计算任务的目标区概率,坐标偏移量结果进行比较,排序和筛选;全连接计算把比较排序的结果进行全连接层计算,得到目标区识别概率;输出计算是根据选择的目标区坐标偏移量计算得到最终目标区的位置坐标。
片上存储器103,用于存储片外的输入数据以及目标检测卷积神经网络计算任务运行过程中算术计算单元104和基于可变电阻式随机存储器的核心计算单元105的中间计算数据,比较筛选单元106中待比较排序的数据和已完成比较排序操作的数据。且片上存储器103为增强动态随机存储器。
算术计算单元104,用于从片上存储器103中读取选择的目标区坐标偏移量,然后计算该目标区的最终位置坐标。
基于可变电阻式随机存储器的核心计算单元105的结构框图如图6所示,包括输入寄存器601,数字-模拟信号转换器602,基于可变电阻式随机存储器的交叉阵列603,模拟-数字信号转换器604,输出寄存器605,激活函数单元606,池化单元607。基于可变电阻式随机存储器的核心计算单元105用于从片上存储器103中读取卷积计算的权值矩阵,把权值矩阵存储到基于可变电阻式随机存储器的交叉阵列603上,执行目标检测卷积神经网络中的卷积计算并将输出结果存储到片上存储器103中。
比较筛选单元106的结构框图如图2所示,包括数据寄存器201,数据比较器202,筛选存储器203,地址寄存器204。数据寄存器201,用于从片上存储器103中读取存储当前待比较数据。数据比较器202,包括待比较数据锁存器221,比较电路222和最小锁存器223,待比较数据锁存器221用于从数据寄存器201内读取待比较数据,最小锁存器223存储筛选存储器203中最小的数据,比较电路222比较待比较数据和筛选存储器203中最小的数据的大小。若待比较数据较大,则从地址寄存器204内读取筛选存储器203中最小数据的地址,将待比较数据存入该地址,并重新寻找筛选存储器203内最小数据的地址存储到地址寄存器204中。若筛选存储器203中最小数据较大,则从数据寄存器201中读取下一个待比较数据。筛选存储器203,用于存储当前已比较数据中前N个最大的数据的具体数值,其最小数据的存储地址将被存储到地址寄存器204。地址寄存器204,用于存储筛选存储器203内最小数值在筛选存储器203内的地址。
基于可变电阻式随机存储器的目标检测卷积神经网络加速器101的4级流水线如图5所示。第一段流水段是卷积计算流水段501,由基于可变电阻式随机存储器的核心计算单元105完成卷积层,激活层和池化层运算,并把输出特征图结果传输至片上存储器103。第二段流水段是比较排序流水段502,由比较筛选单元105对片上存储器103内待比较排序的数据进行比较排序操作,并把输出排序结果传输至片上存储器103。第三段流水段是全连接计算流水段503,由基于可变电阻式随机存储器的核心计算单元105从片上存储器103读取比较排序流水段502的结果进行全连接运算,并把输出目标区域概率和坐标偏移量结果传输至片上存储器103。第四段流水线是输出计算流水段504,由算术计算单元104从片上存储器103读取坐标偏移量,计算输出目标区域的坐标结果并传输至片上存储器103。
图4是基于可变电阻式随机存储器的目标检测卷积神经网络加速器101处理流程图;该流程包括:
步骤401:控制器102根据具体的目标检测卷积神经网络结构,把其中的计算任务按类型进行划分,即卷积计算,比较排序,全连接计算,输出计算。若未完成计算任务划分,则执行步骤401。
步骤402:控制器102向基于可变电阻式随机存储器的核心计算单元105发出指令,从片上存储器103读取卷积计算所需的权值。
步骤403:控制器102向片上存储器103发出指令,读取目标检测卷积神经网络一个待检测任务的输入数据。
步骤404:基于可变电阻式随机存储器的核心计算单元105从片上存储器103读取待检测任务的输入数据,按照网络结构顺序依次完成所有卷积层,激活层和池化层计算,得到输出数据存储到片上存储器103。
步骤405:比较筛选单元106从片上存储器103读取步骤404的输出数据里待比较排序的数据进行比较筛选操作,并输出筛选结果传输至片上存储器103。
步骤406:基于可变电阻式随机存储器的核心计算单元105从片上存储器103读取步骤405的结果进行全连接运算,得到输出目标区域概率和坐标偏移量结果并传输至片上存储器103。
步骤407:算术计算单元104从片上存储器103读取步骤406得到的坐标偏移量,计算输出目标区域的坐标结果传输至片上存储器103。
步骤408:检查基于可变电阻式随机存储器的目标检测卷积神经网络加速器是否完成了所有目标检测卷积神经网络的待检测任务。若没有完成则再执行步骤403。
综上所述,本发明基于比较筛选单元和基于可变电阻式随机存储器的目标检测卷积神经网络加速器的4级流水线,由控制器对目标检测卷积神经网络进行计算任务划分,在片上的基于可变电阻式随机存储器的核心计算单元内执行卷积计算,包括全连接层计算;比较筛选单元内完成比较排序操作;算术计算单元内完成非卷积的计算操作。用比较筛选操作替代比较排序操作得到前N最大的数据,结合4级流水线进一步提升处理效率,无需对数据进行排序,提升计算任务运行效率,使得基于可变电阻式随机存储器的目标检测卷积神经网络加速器更为高效。
Claims (5)
1.一种目标检测卷积神经网络加速器,其特征在于,包括控制器,片上存储器,多个算术计算单元,多个基于可变电阻式随机存储器的核心计算单元以及比较筛选单元,
所述控制器,用于控制程序进程,数据的读取写回操作,并划分目标检测卷积神经网络计算任务为4类子任务:卷积计算,比较排序,全连接计算,输出计算;
所述片上存储器,用于存储片外的输入数据以及目标检测卷积神经网络计算任务运行过程中的中间计算数据,待比较排序的数据和已完成比较筛选操作的数据;
所述算术计算单元,用于计算输出计算,即非卷积计算的算术运算;
所述基于可变电阻式随机存储器的核心计算单元,用于从片上存储器中读取待进行卷积计算的输入数据和权值矩阵,把权值矩阵存储到基于可变电阻式随机存储器的交叉阵列上,执行目标检测卷积神经网络中的卷积计算并将输出结果存储到片上存储器中;
所述比较筛选单元,用于从所述片上存储器读入待比较排序的数据,用比较筛选操作得到所需的前N个最大的数,并把比较筛选的结果写回片上存储器,包括数据寄存器,数据比较器,筛选存储器和地址寄存器;
所述数据寄存器,用于从所述片上存储器中读取存储当前待比较数据;
所述数据比较器,用于从所述数据寄存器内读取待比较数据,比较待比较数据和所述筛选存储器中最小的数据的大小,若待比较数据较大,则从所述地址寄存器内读取所述筛选存储器中最小数据的地址,将待比较数据存入该地址,并重新寻找所述筛选存储器内最小数据的地址存储到地址寄存器中,若所述筛选存储器中最小数据较大,则从数据寄存器中读取下一个待比较数据,包括待比较数据锁存器,比较电路和最小锁存器;
所述筛选存储器,用于存储当前已比较数据中前N个最大的数据的具体数值,所述筛选存储器内的最小数据的存储地址将被存储到地址寄存器;
所述地址寄存器,用于存储所述筛选存储器内最小数值在所述筛选存储器内的地址;
所述基于可变电阻式随机存储器的目标检测卷积神经网络加速器的4级流水线,用于提升目标检测卷积神经网络内卷积计算和比较排序操作之间的处理效率,所述基于可变电阻式随机存储器的目标检测卷积神经网络加速器的4级流水线,包含4个流水段:
第一段流水段是卷积计算流水段,由所述基于可变电阻式随机存储器的核心计算单元完成卷积层,激活层和池化层运算,并把输出特征图结果传输至所述片上存储器;
第二段流水段是比较排序流水段,由比较筛选单元对所述片上存储器内待比较排序的数据进行比较排序操作,并把输出排序结果传输至所述片上存储器;
第三段流水段是全连接计算流水段,由所述基于可变电阻式随机存储器的核心计算单元从所述片上存储器读取第二段流水段的结果进行全连接运算,并把输出目标区域概率和坐标偏移量结果传输至所述片上存储器;
第四段流水线是输出计算流水段,由所述算术计算单元从所述片上存储器读取坐标偏移量,计算输出目标区域的坐标结果传输至所述片上存储器。
2.根据权利要求1所述的目标检测卷积神经网络加速器,其特征在于,所述控制器根据目标检测卷积神经网络的具体结构,把卷积计算与非卷积计算进行划分,使一个完整的目标检测卷积神经网络计算任务被划分为卷积计算任务和比较排序操作任务,所述控制器向所述基于可变电阻式随机存储器的核心计算单元和所述比较筛选单元发送指令,指定卷积计算任务在所述基于可变电阻式随机存储器的核心计算单元内执行,比较排序操作任务在所述比较筛选单元内执行。
3.根据权利要求1所述的目标检测卷积神经网络加速器,其特征在于,所述片上存储器为增强动态随机存储器。
4.根据权利要求1所述的目标检测卷积神经网络加速器,其特征在于,所述基于可变电阻式随机存储器的核心计算单元负责执行一个卷积层内的所有卷积计算和激活操作。
5.根据权利要求1所述的目标检测卷积神经网络加速器,其特征在于,所述比较筛选单元用于执行比较排序任务,通过比较筛选操作替代比较排序操作取出待排序数据中前N最大的数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110055995.1A CN112784977B (zh) | 2021-01-15 | 2021-01-15 | 一种目标检测卷积神经网络加速器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110055995.1A CN112784977B (zh) | 2021-01-15 | 2021-01-15 | 一种目标检测卷积神经网络加速器 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112784977A CN112784977A (zh) | 2021-05-11 |
CN112784977B true CN112784977B (zh) | 2023-09-08 |
Family
ID=75756143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110055995.1A Active CN112784977B (zh) | 2021-01-15 | 2021-01-15 | 一种目标检测卷积神经网络加速器 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112784977B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563954A (zh) * | 2016-07-01 | 2018-01-09 | 谷歌公司 | 具有二维执行通道阵列和二维移位寄存器的图像处理器上区块操作的核处理 |
CN109102065A (zh) * | 2018-06-28 | 2018-12-28 | 广东工业大学 | 一种基于PSoC的卷积神经网络加速器 |
CN111402386A (zh) * | 2018-12-28 | 2020-07-10 | 英特尔公司 | 用于光线追踪指令处理和执行的装置和方法 |
CN111582226A (zh) * | 2020-05-19 | 2020-08-25 | 中国人民解放军国防科技大学 | 目标检测中候选框去冗余方法 |
CN112084139A (zh) * | 2020-08-25 | 2020-12-15 | 上海交通大学 | 一种基于数据流驱动的多发射混合粒度可重构阵列处理器 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11107189B2 (en) * | 2017-04-07 | 2021-08-31 | Intel Corporation | Methods and systems using improved convolutional neural networks for image processing |
WO2019001418A1 (zh) * | 2017-06-26 | 2019-01-03 | 上海寒武纪信息科技有限公司 | 数据共享系统及其数据共享方法 |
-
2021
- 2021-01-15 CN CN202110055995.1A patent/CN112784977B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107563954A (zh) * | 2016-07-01 | 2018-01-09 | 谷歌公司 | 具有二维执行通道阵列和二维移位寄存器的图像处理器上区块操作的核处理 |
CN109102065A (zh) * | 2018-06-28 | 2018-12-28 | 广东工业大学 | 一种基于PSoC的卷积神经网络加速器 |
CN111402386A (zh) * | 2018-12-28 | 2020-07-10 | 英特尔公司 | 用于光线追踪指令处理和执行的装置和方法 |
CN111582226A (zh) * | 2020-05-19 | 2020-08-25 | 中国人民解放军国防科技大学 | 目标检测中候选框去冗余方法 |
CN112084139A (zh) * | 2020-08-25 | 2020-12-15 | 上海交通大学 | 一种基于数据流驱动的多发射混合粒度可重构阵列处理器 |
Non-Patent Citations (1)
Title |
---|
Device and Placement Aware Framework to optimize Single Failure Recoveries and Reads for Erasure Coded Storage System with Heterogeneous Storage Devices;Yingxun Fu等;《2020 International Symposium on Reliable Distributed Systems (SRDS)》;225-235 * |
Also Published As
Publication number | Publication date |
---|---|
CN112784977A (zh) | 2021-05-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Marchisio et al. | Deep learning for edge computing: Current trends, cross-layer optimizations, and open research challenges | |
US11531889B2 (en) | Weight data storage method and neural network processor based on the method | |
CN110490309B (zh) | 一种用于神经网络的算子融合方法及其相关产品 | |
US11861484B2 (en) | Neural processing unit (NPU) direct memory access (NDMA) hardware pre-processing and post-processing | |
JP5425541B2 (ja) | マルチプロセッサ・システム上でデータ・セットを区分化およびソートするための方法および装置 | |
US20180204118A1 (en) | Calculation System and Calculation Method of Neural Network | |
KR20200060302A (ko) | 처리방법 및 장치 | |
Kim et al. | Orchard: Visual object recognition accelerator based on approximate in-memory processing | |
US20160155048A1 (en) | Hardware enhancements to radial basis function with restricted coulomb energy learning and/or k-nearest neighbor based neural network classifiers | |
EP3685319A1 (en) | Direct access, hardware acceleration in neural network | |
WO2020134703A1 (zh) | 一种基于神经网络系统的图像处理方法及神经网络系统 | |
US9269041B2 (en) | Hardware enhancements to radial basis function with restricted coulomb energy learning and/or K-nearest neighbor based neural network classifiers | |
CN106709503A (zh) | 一种基于密度的大型空间数据聚类算法k‑dbscan | |
US20230123828A1 (en) | Neural processing unit capable of reusing data and method thereof | |
CN108875914B (zh) | 对神经网络数据进行预处理和后处理的方法和装置 | |
WO2019060223A1 (en) | POWER STATE CONTROL OF A MOBILE DEVICE | |
WO2020131868A1 (en) | System and method for training artificial neural networks | |
CN112784977B (zh) | 一种目标检测卷积神经网络加速器 | |
CN113591629A (zh) | 一种手指三模态融合识别方法、系统、设备及存储介质 | |
WO2022047802A1 (en) | Processing-in-memory device and data processing method thereof | |
CN113158132A (zh) | 一种基于非结构化稀疏的卷积神经网络加速系统 | |
CN113469354A (zh) | 受存储器限制的神经网络训练 | |
Kim et al. | Image recognition accelerator design using in-memory processing | |
US20190095782A1 (en) | Calculation device for and calculation method of performing convolution | |
CN110969259B (zh) | 具有数据关联自适应舍入的处理核心 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |