CN114463161B - 一种基于忆阻器的神经网络处理连续图像的方法和装置 - Google Patents

一种基于忆阻器的神经网络处理连续图像的方法和装置 Download PDF

Info

Publication number
CN114463161B
CN114463161B CN202210377006.5A CN202210377006A CN114463161B CN 114463161 B CN114463161 B CN 114463161B CN 202210377006 A CN202210377006 A CN 202210377006A CN 114463161 B CN114463161 B CN 114463161B
Authority
CN
China
Prior art keywords
neural network
processing
time
layer
calculation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210377006.5A
Other languages
English (en)
Other versions
CN114463161A (zh
Inventor
李一琪
时拓
张程高
顾子熙
王志斌
高丽丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202210377006.5A priority Critical patent/CN114463161B/zh
Publication of CN114463161A publication Critical patent/CN114463161A/zh
Application granted granted Critical
Publication of CN114463161B publication Critical patent/CN114463161B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Neurology (AREA)
  • Thyristors (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及忆阻器应用技术领域,尤其涉及一种基于忆阻器的神经网络处理连续图像的方法和装置,该方法包括以下步骤:步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列;步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量;步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。本发明加快了忆阻器上深度神经网络处理大量或者连续图像的效率。

Description

一种基于忆阻器的神经网络处理连续图像的方法和装置
技术领域
本发明涉及忆阻器应用技术领域,尤其涉及一种基于忆阻器的神经网络处理连续图像的方法和装置。
背景技术
当前对于忆阻器的研究越来越广泛,涉及的领域也各式各样,如安全、数学、人工智能领域。在人工智能领域,忆阻器常常被用来作为神经网络处理计算的工具与媒介,其高读写速度、低功耗、高并行度的特性被充分的体现出。但是,在忆阻器的处理效率的研究中,尤其是深度神经网络处理大量图像的效率的研究,采用忆阻器的并行处理方法,对于该方法,在学术上往往都是通过增加器件的阻态个数,这种比特层面的方法提高处理并行度,实际运用中存在器件的阻态数目较少,波动性较大,保持性差的问题。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提出了一种基于忆阻器的神经网络处理连续图像的方法和装置,在排列后的每一层的神经网络的图像处理时间相等时,能以神经网络层数作为最大并行处理数,从数据流层面在忆阻器上进行并行处理,其具体技术方案如下:
一种基于忆阻器的神经网络处理连续图像的方法,包括以下步骤:
步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列;
步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量;
步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。
进一步的,所述步骤一具体包括以下子步骤:
步骤1.1,将每一层神经网络的网络结构映射在阵列上,并分别单独部署在对应阵列的计算核上;
步骤1.2,将部署有映射后的网络结构的计算核串行排列。
进一步的,所述阵列上部署有多个计算核,并将部署的多个计算核以向量的输入通道方向进行并行排列,对向量的输出通道进行串行排列。
进一步的,当以所述阵列中的单次的计算时间为最小单位时,神经网络的全连接层的处理时长即为阵列的计算次数×阵列单位运算时间,卷积层的处理时长即为阵列的计算次数×阵列单位运算时间×该卷积在计算时滑动的次数;
当以计算核的单次计算时间为最小单位时,全连接层的处理时长即为串行排列的计算核数量×单个计算核运算时间,卷积层的处理时长即为串行排列的计算核数量×单个计算核运算时间×该卷积在计算时滑动的次数。
进一步的,所述处理时间最长的神经网络层的处理时长,即为使用所述神经网络对连续图像进行并行处理时的图像输入的等待时间或结果输出的间隔时间。
进一步的,所述神经网络的最大并行图像数量和吞吐率,具体表达式如下:
最大并行图像数 =
Figure 28714DEST_PATH_IMAGE001
吞吐率=
Figure 228751DEST_PATH_IMAGE002
Ttotal是指基于忆阻器的神经网络处理单张图像的实际运算时间;
Tmax是指基于忆阻器的神经网络中运算时间最长的神经网络层处理单张图像的实际运算时间;
n为输入的图像数。
一种基于忆阻器的神经网络处理连续图像的装置,包括一个或多个处理器,用于实现所述的基于忆阻器的神经网络处理连续图像的方法。
一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现所述的基于忆阻器的神经网络处理连续图像的方法。
有益效果:
本发明加快了忆阻器上深度神经网络处理大量或者连续图像的效率。
附图说明
图1是本发明的一种基于忆阻器的神经网络处理连续图像的方法流程图;
图2是本发明实施例的单张图像通过神经网络处理的详细流程示意图;
图3是本发明实施例的一种基于忆阻器的神经网络处理连续图像的装置结构示意图。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图和实施例,对本发明作进一步详细说明。
如图1所示,本发明的一种基于忆阻器的神经网络处理连续图像的方法,包括以下步骤:
步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列。
步骤1.1,将每一层神经网络的网络结构映射在阵列上,并分别单独部署在对应阵列的计算核上;
所述阵列部署有多个计算核,并将部署的多个计算核以向量的输入通道(电压流入通道)方向进行并行排列,对向量的输出通道(电流流出的通道)进行串行排列。
步骤1.2,将部署有映射后的网络结构的计算核串行排列。
步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量。
如果以阵列中的单次的计算时间为最小单位,受同时工作的模数转换器的个数影响,神经网络的全连接层的处理时长即为阵列的计算次数×阵列单位运算时间,卷积层的处理时长即为阵列的计算次数×阵列单位运算时间×该卷积在计算时滑动的次数。
如果以计算核的单次计算时间为最小单位,全连接层的处理时长即为串行排列的计算核数量×单个计算核运算时间,卷积层的处理时长即为串行排列的计算核数量×单个计算核运算时间×该卷积在计算时滑动的次数。
选取运算时间最长的神经网络层,使用单张图像对该层进行模拟运算,模拟出这一层神经网络的实际运算时间,即为使用该神经网络结构的忆阻器进行并行计算时的数据输入的等待时间或结果输出的间隔时间。
可以计算出这个基于忆阻器的神经网络的最大并行图像数和吞吐率。
最大并行指令(图像)数 =
Figure 251808DEST_PATH_IMAGE003
吞吐率=
Figure 537296DEST_PATH_IMAGE002
Ttotal是指这个基于忆阻器的神经网络处理单张图像的实际运算时间;
Tmax是指这个基于忆阻器的神经网络中运算时间最长的神经网络层处理单张图像的实际运算时间;
n为输入的图像数。
步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。
实施例:
如图2所示,以输入为(28,28)的图像,输出为10,补丁值为1,移动步长为2,卷积为(3,3),卷积个数分别为2,8,15的三层卷积和一层全连接的神经网络,映射在(64,64)的计算核上。
Ttotal = (392+392+240+1)× t = 1025t,
Ttotal是指这个基于忆阻器的神经网络处理单张图像的实际运算时间,t为计算核的单位计算运行时间。
Tmax = 392t,
Tmax是指这个基于忆阻器的神经网络中运算时间最长的神经网络层处单张图像的实际运算时间。
最大并行图像数 =
Figure 336625DEST_PATH_IMAGE003
= 2.6
n张图像的计算时间=
Figure 391169DEST_PATH_IMAGE004
= 1025t + (n-1)× 392t= 633t +392tn;
吞吐率=
Figure 352171DEST_PATH_IMAGE002
=
Figure DEST_PATH_IMAGE005
如果不使用该方法,即不考虑网络层之间的并行计算和计算核之间的并行计算,这个4层的神经网络处理一张图像需要(392×1+392×1+240×3+1×8)× t = 1512t,运行100张图像时,n=100,则需要1512t ×100= 151200t。
基于本发明的方法,运行100张图像时,需要633t+392t×100= 39833t 。
因此,一个4层的神经网络,基于本发明的方法,可以加速近3.8倍(151200t /39833t )。
与前述一种基于忆阻器的神经网络处理连续图像的方法的实施例相对应,本发明还提供了一种基于忆阻器的神经网络处理连续图像的装置的实施例。
参见图3,本发明实施例提供的一种基于忆阻器的神经网络处理连续图像的装置,包括一个或多个处理器,用于实现上述实施例中的一种基于忆阻器的神经网络处理连续图像的方法。
本发明一种基于忆阻器的神经网络处理连续图像的装置的实施例可以应用在任意具备数据处理能力的设备上,该任意具备数据处理能力的设备可以为诸如计算机等设备或装置。装置实施例可以通过软件实现,也可以通过硬件或者软硬件结合的方式实现。以软件实现为例,作为一个逻辑意义上的装置,是通过其所在任意具备数据处理能力的设备的处理器将非易失性存储器中对应的计算机程序指令读取到内存中运行形成的。从硬件层面而言,如图3所示,为本发明一种基于忆阻器的神经网络处理连续图像的装置所在任意具备数据处理能力的设备的一种硬件结构图,除了图3所示的处理器、内存、网络接口、以及非易失性存储器之外,实施例中装置所在的任意具备数据处理能力的设备通常根据该任意具备数据处理能力的设备的实际功能,还可以包括其他硬件,对此不再赘述。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本发明方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
本发明实施例还提供一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时,实现上述实施例中的一种基于忆阻器的神经网络处理连续图像的方法。
所述计算机可读存储介质可以是前述任一实施例所述的任意具备数据处理能力的设备的内部存储单元,例如硬盘或内存。所述计算机可读存储介质也可以是风力发电机的外部存储设备,例如所述设备上配备的插接式硬盘、智能存储卡(Smart Media Card,SMC)、SD卡、闪存卡(Flash Card)等。进一步的,所述计算机可读存储介质还可以既包括任意具备数据处理能力的设备的内部存储单元也包括外部存储设备。所述计算机可读存储介质用于存储所述计算机程序以及所述任意具备数据处理能力的设备所需的其他程序和数据,还可以用于暂时地存储已经输出或者将要输出的数据。
以上所述,仅为本发明的优选实施案例,并非对本发明做任何形式上的限制。虽然前文对本发明的实施过程进行了详细说明,对于熟悉本领域的人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行同等替换。凡在本发明精神和原则之内所做修改、同等替换等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于忆阻器的神经网络处理连续图像的方法,其特征在于,包括以下步骤:
步骤一,对神经网络的每一层进行阵列映射,并对阵列上的计算核进行串并行排列;
步骤二,将单张图像输入经过步骤一设置的神经网络,统计出神经网络的每一层的图像处理时间,得到神经网络对单张图像处理的总时长,后选取出处理时间最长的神经网络层并得到其对应的处理时长,根据总时长和单层神经网络最长处理时长,得到神经网络的最大并行图像数量;
当以所述阵列中的单次的计算时间为最小单位时,神经网络的全连接层的处理时长即为阵列的计算次数×阵列单位运算时间,卷积层的处理时长即为阵列的计算次数×阵列单位运算时间×该卷积在计算时滑动的次数;
当以计算核的单次计算时间为最小单位时,全连接层的处理时长即为串行排列的计算核数量×单个计算核运算时间,卷积层的处理时长即为串行排列的计算核数量×单个计算核运算时间×该卷积在计算时滑动的次数;
所述处理时间最长的神经网络层的处理时长,即为使用所述神经网络对连续图像进行并行处理时的图像输入的等待时间或结果输出的间隔时间;
所述神经网络的最大并行图像数量和吞吐率,具体表达式如下:
最大并行图像数 = Ttotal/Tmax
吞吐率=
Figure DEST_PATH_IMAGE001
Ttotal是指基于忆阻器的神经网络处理单张图像的实际运算时间;
Tmax是指基于忆阻器的神经网络中运算时间最长的神经网络层处理单张图像的实际运算时间;
n为输入的图像数;
步骤三,输入小于或等于最大并行图像数量的图像至经过步骤一设置的神经网络,进行并行处理。
2.根据权利要求1所述的一种基于忆阻器的神经网络处理连续图像的方法,其特征在于,所述步骤一具体包括以下子步骤:
步骤1.1,将每一层神经网络的网络结构映射在阵列上,并分别单独部署在对应阵列的计算核上;
步骤1.2,将部署有映射后的网络结构的计算核串行排列。
3.根据权利要求2所述的一种基于忆阻器的神经网络处理连续图像的方法,其特征在于,所述阵列上部署有多个计算核,并将部署的多个计算核以向量的输入通道方向进行并行排列,对向量的输出通道进行串行排列。
4.一种基于忆阻器的神经网络处理连续图像的装置,其特征在于,包括一个或多个处理器,用于实现权利要求1-3中任一项所述的基于忆阻器的神经网络处理连续图像的方法。
5.一种计算机可读存储介质,其特征在于,其上存储有程序,该程序被处理器执行时,实现权利要求1-3中任一项所述的基于忆阻器的神经网络处理连续图像的方法。
CN202210377006.5A 2022-04-12 2022-04-12 一种基于忆阻器的神经网络处理连续图像的方法和装置 Active CN114463161B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210377006.5A CN114463161B (zh) 2022-04-12 2022-04-12 一种基于忆阻器的神经网络处理连续图像的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210377006.5A CN114463161B (zh) 2022-04-12 2022-04-12 一种基于忆阻器的神经网络处理连续图像的方法和装置

Publications (2)

Publication Number Publication Date
CN114463161A CN114463161A (zh) 2022-05-10
CN114463161B true CN114463161B (zh) 2022-09-13

Family

ID=81417599

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210377006.5A Active CN114463161B (zh) 2022-04-12 2022-04-12 一种基于忆阻器的神经网络处理连续图像的方法和装置

Country Status (1)

Country Link
CN (1) CN114463161B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021004366A1 (zh) * 2019-07-08 2021-01-14 浙江大学 基于结构化剪枝和低比特量化的神经网络加速器及方法
WO2021044242A1 (en) * 2019-09-05 2021-03-11 International Business Machines Corporation Performing dot product operations using a memristive crossbar array
CN113011574A (zh) * 2021-03-22 2021-06-22 西安交通大学 一种卷积神经网络系统、忆阻器阵列和卷积神经网络
CN113987985A (zh) * 2021-11-15 2022-01-28 武汉理工大学 基于忆阻器交叉阵列神经网络加速器热效应优化方法
CN114241245A (zh) * 2021-12-23 2022-03-25 西南大学 一种基于残差胶囊神经网络的图像分类系统

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4093909B2 (ja) * 2003-05-14 2008-06-04 富士通株式会社 並列性能評価方法及びプログラム
CN103810497B (zh) * 2014-01-26 2017-04-19 华中科技大学 一种基于忆阻器的图像识别系统及方法
US9672474B2 (en) * 2014-06-30 2017-06-06 Amazon Technologies, Inc. Concurrent binning of machine learning data
US10996959B2 (en) * 2015-01-08 2021-05-04 Technion Research And Development Foundation Ltd. Hybrid processor
CN105744281A (zh) * 2016-03-28 2016-07-06 飞依诺科技(苏州)有限公司 一种连续图像的处理方法及装置
FR3050855B1 (fr) * 2016-04-27 2019-05-03 Commissariat A L'energie Atomique Et Aux Energies Alternatives Dispositif et procede de calcul de convolution d'un reseau de neurones convolutionnel
KR102457463B1 (ko) * 2017-01-16 2022-10-21 한국전자통신연구원 희소 파라미터를 사용하는 압축 신경망 시스템 및 그것의 설계 방법
CN109063826B (zh) * 2018-03-19 2019-05-31 重庆大学 一种基于忆阻器的卷积神经网络实现方法
CN109460817B (zh) * 2018-09-11 2021-08-03 华中科技大学 一种基于非易失存储器的卷积神经网络片上学习系统
CN110781849A (zh) * 2019-10-30 2020-02-11 北京锐安科技有限公司 一种图像处理方法、装置、设备及存储介质
CN110782022A (zh) * 2019-10-31 2020-02-11 福州大学 一种面向可编程逻辑器件移动终端的小型神经网络的实现方法
CN110807519B (zh) * 2019-11-07 2023-01-17 清华大学 基于忆阻器的神经网络的并行加速方法及处理器、装置
CN113517007B (zh) * 2021-04-29 2023-07-25 西安交通大学 一种流水处理方法、系统和忆阻器阵列
CN114067157B (zh) * 2021-11-17 2024-03-26 中国人民解放军国防科技大学 基于忆阻器的神经网络优化方法、装置及忆阻器阵列

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021004366A1 (zh) * 2019-07-08 2021-01-14 浙江大学 基于结构化剪枝和低比特量化的神经网络加速器及方法
WO2021044242A1 (en) * 2019-09-05 2021-03-11 International Business Machines Corporation Performing dot product operations using a memristive crossbar array
CN113011574A (zh) * 2021-03-22 2021-06-22 西安交通大学 一种卷积神经网络系统、忆阻器阵列和卷积神经网络
CN113987985A (zh) * 2021-11-15 2022-01-28 武汉理工大学 基于忆阻器交叉阵列神经网络加速器热效应优化方法
CN114241245A (zh) * 2021-12-23 2022-03-25 西南大学 一种基于残差胶囊神经网络的图像分类系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
一种高度并行的卷积神经网络加速器设计方法;徐欣等;《哈尔滨工业大学学报》;20200430(第04期);第37-43页 *
基于Python+TensorFlow实现卷积神经网络的多维表情识别;李洋等;《科技经济导刊》;20200515(第14期);第9-11页 *
基于多列深度卷积神经网络的车型识别算法研究;程艳艳;《长春师范大学学报》;20200620(第06期);第54-58页 *

Also Published As

Publication number Publication date
CN114463161A (zh) 2022-05-10

Similar Documents

Publication Publication Date Title
Chen et al. ReGAN: A pipelined ReRAM-based accelerator for generative adversarial networks
US20240185050A1 (en) Analog neuromorphic circuit implemented using resistive memories
CA3030428C (en) Superpixel methods for convolutional neural networks
US10635966B2 (en) System and method for parallelizing convolutional neural networks
US20180260710A1 (en) Calculating device and method for a sparsely connected artificial neural network
US20190138902A1 (en) Methods and systems for improved transforms in convolutional neural networks
CN110046704B (zh) 基于数据流的深度网络加速方法、装置、设备及存储介质
US11749322B2 (en) Copy data in a memory system with artificial intelligence mode
US20240273163A1 (en) Accelerator for sparse matrix multiplication in neural networks
CN112396085A (zh) 识别图像的方法和设备
CN118193443A (zh) 用于处理器的数据加载方法、处理器、计算设备和介质
Li et al. Enabling high performance deep learning networks on embedded systems
CN112200310B (zh) 智能处理器、数据处理方法及存储介质
CN114463161B (zh) 一种基于忆阻器的神经网络处理连续图像的方法和装置
CN112766473A (zh) 运算装置及相关产品
WO2021212972A1 (zh) 运算方法、处理器以及相关产品
TWI798591B (zh) 卷積神經網路運算方法及裝置
CN111198714B (zh) 重训练方法及相关产品
US20200150971A1 (en) Data processing apparatus and method
KR20210014897A (ko) 인공 신경망을 위한 행렬 연산기 및 행렬 연산 방법
CN112766471A (zh) 运算装置及相关产品
CN113536221B (zh) 运算方法、处理器以及相关产品
US20240086677A1 (en) Learned column-weights for rapid-estimation of properties of an entire excitation vector
US20230237307A1 (en) Systems and methods for a hardware neural network engine
US20240144051A1 (en) Hardware-aware generation of machine learning models

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant