CN114303194A - 在具有人工智能模式的存储器系统中复制数据 - Google Patents

在具有人工智能模式的存储器系统中复制数据 Download PDF

Info

Publication number
CN114303194A
CN114303194A CN202080060304.0A CN202080060304A CN114303194A CN 114303194 A CN114303194 A CN 114303194A CN 202080060304 A CN202080060304 A CN 202080060304A CN 114303194 A CN114303194 A CN 114303194A
Authority
CN
China
Prior art keywords
memory device
data
memory
address
registers
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080060304.0A
Other languages
English (en)
Inventor
A·特罗亚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Micron Technology Inc
Original Assignee
Micron Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Micron Technology Inc filed Critical Micron Technology Inc
Publication of CN114303194A publication Critical patent/CN114303194A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/22Read-write [R-W] timing or clocking circuits; Read-write [R-W] control signal generators or management 
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/07Responding to the occurrence of a fault, e.g. fault tolerance
    • G06F11/14Error detection or correction of the data by redundancy in operation
    • G06F11/1402Saving, restoring, recovering or retrying
    • G06F11/1446Point-in-time backing up or restoration of persistent data
    • G06F11/1448Management of the data involved in backup or backup restore
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/0223User address space allocation, e.g. contiguous or non contiguous base addressing
    • G06F12/023Free address space management
    • G06F12/0238Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory
    • G06F12/0246Memory management in non-volatile memory, e.g. resistive RAM or ferroelectric memory in block erasable memory, e.g. flash memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/21Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements
    • G11C11/34Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices
    • G11C11/40Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices using transistors
    • G11C11/401Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using electric elements using semiconductor devices using transistors forming cells needing refreshing or charge regeneration, i.e. dynamic cells
    • G11C11/4063Auxiliary circuits, e.g. for addressing, decoding, driving, writing, sensing or timing
    • G11C11/407Auxiliary circuits, e.g. for addressing, decoding, driving, writing, sensing or timing for memory cells of the field-effect type
    • G11C11/409Read-write [R-W] circuits 
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C11/00Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor
    • G11C11/54Digital stores characterised by the use of particular electric or magnetic storage elements; Storage elements therefor using elements simulating biological cells, e.g. neuron
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/10Input/output [I/O] data interface arrangements, e.g. I/O data control circuits, I/O data buffers
    • G11C7/1006Data managing, e.g. manipulating data before writing or reading out, data bus switches or control circuits therefor
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C7/00Arrangements for writing information into, or reading information out from, a digital store
    • G11C7/10Input/output [I/O] data interface arrangements, e.g. I/O data control circuits, I/O data buffers
    • G11C7/1048Data bus control circuits, e.g. precharging, presetting, equalising
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2207/00Indexing scheme relating to arrangements for writing information into, or reading information out from, a digital store
    • G11C2207/22Control and timing of internal memory operations
    • G11C2207/2236Copy

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Computer Hardware Design (AREA)
  • Neurology (AREA)
  • Quality & Reliability (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Memory System (AREA)

Abstract

本公开包含与在具有人工智能(AI)模式的存储器系统中复制数据相关的设备及方法。一种设备可接收指示所述设备在人工智能(AI)模式下操作的命令、用以基于数个寄存器的状态使用AI加速器来执行AI操作的命令及用以在正在执行AI操作的存储器装置之间复制数据的命令。所述存储器系统可将神经网络数据、激活函数数据、偏差数据、输入数据及/或输出数据从第一存储器装置复制到第二存储器装置,使得所述第一存储器装置可在第一AI操作中使用所述神经网络数据、激活函数数据、偏差数据、输入数据及/或输出数据,且所述第二存储器装置可在第二AI操作中使用所述神经网络数据、激活函数数据、偏差数据、输入数据及/或输出数据。

Description

在具有人工智能模式的存储器系统中复制数据
技术领域
本公开大体上涉及存储器装置,且更特定来说,涉及用于在具有人工智能(AI)模式的存储器系统中复制数据的设备及方法。
背景技术
存储器装置通常被提供为计算机或其它电子装置中的内部半导体集成电路。存在许多不同类型的存储器,包含易失性及非易失性存储器。易失性存储器可需要电力来维持其数据且包含随机存取存储器(RAM)、动态随机存取存储器(DRAM)及同步动态随机存取存储器(SDRAM)等等。非易失性存储器可通过在未被供电时保留经存储数据来提供持久数据且可包含NAND快闪存储器、NOR快闪存储器、只读存储器(ROM)、电可擦除可编程ROM(EEPROM)、可擦除可编程ROM(EPROM)及电阻可变存储器,例如相变随机存取存储器(PCRAM)、电阻式随机存取存储器(RRAM)及磁阻式随机存取存储器(MRAM)等等。
存储器还用作广泛范围的电子应用的易失性及非易失性数据存储装置。非易失性存储器可用于例如个人计算机、便携式存储棒、数码相机、蜂窝电话、便携式音乐播放器(例如MP3播放器)、电影播放器及其它电子装置中。存储器单元可布置成阵列,其中所述阵列用于存储器装置中。
附图说明
图1A是根据本公开的数个实施例的呈包含具有人工智能(AI)加速器的存储器装置的计算系统的形式的设备的框图。
图1B是根据本公开的数个实施例的呈包含带有具有人工智能(AI)加速器的存储器装置的存储器系统的计算系统的形式的设备的框图。
图2是根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置上的数个寄存器的框图。
图3A及3B是根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置上的数个寄存器中的数个位的框图。
图4是根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置的数个块的框图
图5是说明根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置中的实例人工智能过程的流程图。
图6是说明根据本公开的数个实施例的用以复制数据的实例方法的流程图。
具体实施方式
本公开包含与在具有人工智能(AI)模式的存储器系统中复制数据相关的设备及方法。一种实例设备可包含接收指示所述设备在人工智能(AI)模式下操作的命令、用以基于数个寄存器的状态使用AI加速器来执行AI操作的命令及用以在正在执行AI操作的存储器装置之间复制数据的命令。存储器装置之间复制的数据可为与AI操作相关联的神经网络数据、激活函数数据、偏差数据、输入数据及/或输出数据。AI加速器可包含经配置以执行与AI操作相关联的操作(例如,逻辑操作,以及其它操作)的硬件、软件及或固件。硬件可包含经配置为加法器及/或乘法器以执行与AI操作相关联的操作,例如逻辑操作的电路系统。
存储器装置可包含存储在存储器单元阵列中的被AI加速器用以执行AI操作的数据。输入数据连同定义神经网络的数据,例如神经元数据、激活函数数据及/或偏差值数据,可经存储在存储器装置中,在存储器装置之间进行复制,及用以执行AI操作。而且,存储器装置可包含用以存储AI操作的部分结果的临时块及用以存储AI操作的结果的输出块。主机可发出用于输出块的读取命令且可将输出块中的结果发送到主机以完成请求执行AI操作的命令的执行。
主机及/或存储器系统的控制器可发出用以在执行AI操作的存储器装置之间复制输入及/或输出数据的命令。例如,存储器系统可将输入数据从第一存储器装置复制到第二存储器装置,使得第一存储器装置可在第一AI操作中使用输入数据且第二存储器装置可在第二AI操作中使用输入数据。可从主机接收从第一存储器装置复制到第二存储器装置的输入数据。执行第一AI操作的第一存储器装置及执行第二AI操作的第二存储器装置可包含相同或不同神经网络数据、激活函数数据及/或偏差数据。可将第一及第二AI操作的结果报告给控制器及/或主机并相互比较。
主机及/或存储器系统的控制器可发出用以在执行AI操作的存储器装置之间复制神经网络数据、激活函数数据、偏差数据的命令。存储器系统可将神经网络数据、激活函数数据及/或偏差数据从第一存储器装置复制到第二存储器装置,使得第一存储器装置可在第一AI操作中使用神经网络数据、激活函数数据及/或偏差数据且第二存储器装置可在第二AI操作中使用神经网络数据、激活函数数据及/或偏差数据。可将第一及第二AI操作的结果报告给主机及/或存储器系统的控制器并相互比较。
存储器系统的每一存储器装置可将输入数据及神经元数据发送到AI加速器且AI加速器可对输入数据及神经元数据执行AI操作。存储器装置可将AI操作的结果存储在存储器装置上的临时块中。存储器装置可发送来自临时块的结果且将偏差值数据应用于AI加速器。AI加速器可使用偏差值数据对来自临时块的结果执行AI操作。存储器装置可将AI操作的结果存储在存储器装置上的临时块中。存储器装置可将来自临时块的结果及激活函数数据发送到AI加速器。AI加速器可对来自临时块的结果及/或激活函数数据执行AI操作。存储器装置可将AI操作的结果存储在存储器装置上的输出块中。
与在主机上执行的AI操作相比,AI加速器可减少与AI操作相关联的延时及功率消耗。在主机上执行的AI操作使用在存储器装置与主机之间交换的数据,这使AI操作增加延时及功率消耗。虽然可使用AI加速器及存储器阵列来在存储器装置上执行根据本公开的实施例执行的AI操作,但其中在执行AI操作的同时不从存储器装置转移数据。
在本公开的以下详细描述中,参考形成本公开的一部分且其中以说明方式展示可如何实践本公开的数个实施例的附图。充分详细地描述这些实施例以使所属领域的一般技术人员能够实践本公开的实施例,且应理解,在不脱离本公开的范围的情况下可利用其它实施例且可进行过程改变、电改变及/或结构改变。如本文中所使用,指定符“N”表示如此指定的数个特定特征可包含在本公开的数个实施例中。
如本文中所使用,“数个”某物可指代此类事物中的一或多者。例如,数个存储器装置可指代存储器装置中的一或多者。另外,如本文中所使用,特别是关于附图中的参考数字所使用的例如“N”的指定符指示如此指定的数个特定特征可包含在本公开的数个实施例中。
本文中的图遵循编号约定,其中首位或前几位数字对应于附图图号且剩余数字识别附图中的元件或组件。不同图之间的类似元件或组件可通过使用类似数字来识别。如将明白,可添加、交换及/或消除本文中的各个实施例中所展示的元件以便提供本公开的数个额外实施例。另外,所述图中所提供的元件的比例及相对尺度意在说明本公开的各个实施例而非以限制意义进行使用。
图1A是根据本公开的数个实施例的呈包含存储器装置120的计算系统100的形式的设备的框图。如本文中所使用,存储器装置120、存储器阵列125-1、…125-N、存储器控制器122及/或AI加速器124也可单独地被视为“设备”。
如图1A中所说明,主机102可耦合到存储器装置120。主机102可为膝上型计算机、个人计算机、数码相机、数字记录及回放装置、移动电话、PDA、存储卡读卡器、接口集线器以及其它主机系统,且可包含存储器存取装置,例如处理器。所属领域的一般技术人员将明白,“一处理器”可意指一或多个处理器,例如并行处理系统、数个协处理器等。
主机102包含用以与存储器装置120进行通信的主机控制器108。主机控制器108可将命令发送到存储器装置120。主机控制器108可与存储器装置120、存储器装置120上的存储器控制器122及/或存储器装置120上的AI加速器124进行通信以执行AI操作、读取数据、写入数据及/或擦除数据,以及其它操作。AI操作可包含机器学习或神经网络操作,所述机器学习或神经网络操作可包含训练操作或推理操作或两者。在一些实例中,每一存储器装置120可表示神经网络或深度神经网络(例如,具有三个或更多个隐藏层的网络)内的层。或每一存储器装置120可为或包含神经网络的节点,且神经网络的层可由多个存储器装置或若干存储器装置120的部分组成。存储器装置120可将用于AI操作的权重(或模型)存储在存储器阵列125中。
物理主机接口可提供用于在存储器装置120与具有用于物理主机接口的兼容接纳器的主机102之间传递控制、地址、数据及其它信号的接口。例如,所述信号可在数个总线(例如数据总线及/或地址总线)上在主机102与存储器装置120之间传达。
存储器装置120可包含控制器120,AI加速器124及存储器阵列125-1、…、125-N。存储器装置120可为低功耗双倍数据速率动态随机存取存储器(例如LPDDR5装置)及/或图形双倍数据速率动态随机存取存储器(例如GDDR6装置),以及其它类型的装置。存储器阵列125-1、…、125-N可包含数个存储器单元,例如易失性存储器单元(例如,DRAM存储器单元,以及其它类型的易失性存储器单元)及/或非易失性存储器单元(例如,RRAM存储器单元,以及其它类型的非易失性存储器单元)。存储器装置120可将数据读取及/或写入到存储器阵列125-1、…、125-N。存储器阵列125-1、…、125-N可存储在存储器装置120上执行的AI操作期间使用的数据。存储器阵列125-1、…、125-N可存储神经网络的输入、输出、权重矩阵及偏差信息,及/或由AI加速器用以在存储器装置120上执行AI操作的激活函数信息。
主机控制器108、存储器装置120上的存储器控制器122及/或AI加速器124可包含控制电路系统,例如硬件、固件及/或软件。在一或多个实施例中,主机控制器108、存储器控制器122及/或AI加速器124可为耦合到包含物理接口的印刷电路板的专用集成电路(ASIC)。而且,存储器装置120上的存储器控制器122可包含寄存器130。寄存器130可经编程以提供信息以供AI加速器执行AI操作。寄存器130可包含任何数目个寄存器。寄存器130可由主机102、存储器控制器122及/或AI加速器124写入及/或读取。寄存器130可提供用于AI加速器124的输入、输出、神经网络及/或激活函数信息。寄存器130可包含用以选择存储器装置120的操作模式的模式寄存器131。AI操作模式可通过将字,举例来说例如0xAA及/或0x2AA写入到寄存器131来选择,这禁止存取与存储器装置120的正常操作相关联的寄存器且允许存取与AI操作相关联的寄存器。而且,可使用利用由存储在存储器装置120中的密钥认证的加密算法的签名来选择AI操作模式。寄存器130也可经定位在存储器阵列125-1、…、125-N中及可由控制器122存取。
AI加速器124可包含用以执行AI操作的硬件126及/或软件/固件128。硬件126可包含用以执行与AI操作相关联的逻辑操作的加法器/乘法器126。存储器控制器122及/或AI加速器124可从主机102接收用以执行AI操作的命令。存储器装置120可使用AI加速器124,存储器阵列125-1、…、125-N中的数据及寄存器130中的信息来执行来自主机102的命令中请求的AI操作。所述存储器装置可向主机120回报举例来说例如AI操作的结果及/或错误信息的信息。由AI加速器124执行的AI操作可在不使用外部处理资源的情况下执行。
存储器阵列125-1、…、125-N可为存储器系统提供主存储器或可用作整个存储器系统的额外存储器或存储装置。每一存储器阵列125-1、…、125-N可包含数个存储器单元块。所述存储器单元块可用以存储在由存储器装置120执行的AI操作期间使用的数据。例如,存储器阵列125-1、…、125-N可包含DRAM存储器单元。实施例不限于特定类型的存储器装置。例如,所述存储器装置可包含RAM、ROM、DRAM、SDRAM、PCRAM、RRAM、3D XPoint及快闪存储器等等。
举例来说,存储器装置120可执行作为或包含一或多个推理步骤的AI操作。存储器阵列125可为神经网络的层或可各自为个别节点且存储器装置120可为层;或存储器装置120可为更大网络内的节点。另外或替代地,存储器阵列125可存储将在节点内使用(例如,求和)的数据或权重或两者。每一节点(例如,存储器阵列125)可将来自从同一或不同存储器阵列125的单元读取的数据的输入与从存储器阵列125的单元读取的权重组合。权重与数据的组合例如可使用加法器/乘法器127在存储器阵列125的外围内或在硬件126内求和。在此类情况下,可将经求和结果传递到存储器阵列125的外围中或硬件126内表示或例示的激活函数。所述结果可经传递到另一存储器装置120或可在AI加速器124内(例如,被软件/固件128)用以做出决策或训练包含存储器装置120的网络。
采用存储器装置120的网络可能够进行或用于监督或无监督学习。这可与其它学习或训练制度组合。在一些情况下,经训练网络或模型被导入存储器装置120或与存储器装置120一起使用,且存储器装置120的操作主要或专门与推理相关。
图1A的实施例可包含未说明以免混淆本公开的实施例的额外电路系统。例如,存储器装置120可包含用以锁存通过I/O电路系统在I/O连接上提供的地址信号的地址电路系统。地址信号可由行解码器及列解码器接收及解码以存取存储器阵列125-1、…、125-N。所属领域的技术人员将明白,地址输入连接的数目可取决于存储器阵列125-1、…、125-N的密度及架构。
图1B是根据本公开的数个实施例的呈包含带有具有人工智能(AI)加速器的存储器装置的存储器系统的计算系统的形式的设备的框图。如本文中所使用,存储器装置120-1、120-2、120-3及120-X、控制器10及/或存储器系统104也可单独地被视为“设备”。
如图1B中所说明,主机102可耦合到存储器系统104。主机102可为膝上型计算机、个人计算机、数码相机、数字记录及回放装置、移动电话、PDA、存储卡读卡器、接口集线器以及其它主机系统,且可包含存储器存取装置,例如处理器。所属领域的一般技术人员将明白,“处理器”可意指一或多个处理器,例如并行处理系统、数个协处理器等。
主机102包含用以与存储器系统104进行通信的主机控制器108。主机控制器108可将命令发送到存储器系统104。存储器系统104可包含控制器104以及存储器装置120-1、120-2、120-3及120-X。存储器装置120-1、120-2、120-3及120-X可为上文关联图1A所描述的存储器装置120且包含具有用以执行AI操作的硬件、软件及/或固件的AI加速器。主机控制器108可与控制器105及/或存储器装置120-1、120-2、120-3及120-X进行通信以执行AI操作、读取数据、写入数据及/或擦除数据以及其它操作。物理主机接口可提供用于在存储器系统104与具有物理主机接口的兼容接纳器的主机102之间传递控制、地址、数据及其它信号的接口。例如,所述信号可在数个总线,例如数据总线及/或地址总线上在主机102与存储器系统104之间传达。
存储器系统104可包含经由总线121耦合到存储器装置120-1、120-2、120-3及120-X的控制器105。总线121可经配置使得当操作存储器系统的存储器装置的一部分或全部时可消耗总线121的全带宽。例如,图1B中所展示的四个存储器装置120-1、120-2、120-3及120-X中的两个存储器装置可经配置以在使用总线121的全带宽的同时操作。例如,控制器105可在选择线117上发送可选择存储器装置120-1及120-3以在特定时间段期间操作,例如同时操作的命令。控制器105可在选择线119上发送可选择存储器装置120-2及120-X以在特定时间段期间操作,例如同时操作的命令。在数个实施例中,控制器105可经配置以在选择线117及119上发送用以选择存储器装置120-1、120-2、120-3及120-X的任何组合的命令。
在数个实施例中,选择线117上的命令可用以选择存储器装置120-1及120-3且选择线119上的命令可用以选择存储器装置120-2及120-X。可在执行AI操作期间使用选定存储器装置。与AI操作相关的数据可在总线121上在选定存储器装置120-1、120-2、120-3与120-X之间复制及/或传送。例如,AI操作的第一部分可在存储器装置120-1上执行且AI操作的第一部分的输出可在总线121上复制到存储器装置120-3。AI操作的第一部分的输出可被存储器装置120-3用作AI操作的第二部分的输入。而且,与AI操作相关联的神经网络数据、激活函数数据及/或偏差数据可在总线121上在存储器装置120-1、120-2、120-3与120-X之间复制。
图2是根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置上的数个寄存器的框图。寄存器230可为AI寄存器且包含输入信息、输出信息、神经网络信息及/或激活函数信息,以及其它类型的信息,以供AI加速器、控制器及/或存储器装置的存储器阵列(例如,图1中的AI加速器124、存储器控制器122及/或存储器阵列125-1、…、125-N)使用。寄存器可基于来自主机、AI加速器及/或控制器(例如,图1中的主机102、AI加速器124、存储器控制器122)的命令来读取及/或写入。
寄存器232-0可定义与存储器装置的AI模式相关联的参数。寄存器232-0中的位可起始AI操作、重新起始AI操作、指示寄存器中的内容是有效的、清除来自寄存器的内容及/或退出AI模式。
寄存器232-1、232-2、232-3、232-4及232-5可定义在AI操作中使用的输入的大小、在AI操作中使用的输入的数目以及在AI操作中使用的输入的起始地址及结束地址。寄存器232-7、232-8、232-9、232-10及232-11可定义AI操作的输出的大小、AI操作中的输出的数目以及AI操作的输出的起始地址及结束地址。
寄存器232-12可用以启用在AI操作期间使用的输入存储体、神经元存储体、输出存储体、偏差存储体、激活函数及临时存储体的使用。
寄存器232-13、232-14、232-15、232-16、232-17、232-18、232-19、232-20、232-21、232-22、232-23、232-24及232-25可用以定义在AI操作期间使用的神经网络。寄存器232-13、232-14、232-15、232-16、232-17、232-18、232-19、232-20、232-21、232-22、232-23、232-24及232-25可定义在AI操作期间使用的神经网络的神经元及/或层的大小、数目及位置。
寄存器232-26可启用AI加速器的调试/保持模式及将在AI操作的层处观察到的输出。寄存器232-26可指示应在AI操作期间应用激活且AI操作可在AI操作中步进(例如,执行AI操作中的下一步骤)。寄存器232-26可指示层的输出经定位在其中的临时块是有效的。临时块中的数据可由主机及/或存储器装置上的控制器来改变,使得可随着AI操作步进而在AI操作中使用经改变数据。寄存器232-27、232-28及232-29可定义其中调试/保持模式将停止AI操作的层,改变神经网络的内容及/或观察层的输出。
寄存器232-30、232-31、232-32及232-33可定义在AI操作中使用的临时存储体的大小以及在AI操作中使用的临时存储体的起始地址及结束地址。寄存器232-30可定义在AI操作中使用的第一临时存储体的起始地址及结束地址且寄存器232-33可定义在AI操作中使用的第一临时存储体的起始地址及结束地址。寄存器232-31及232-32可定义在AI操作中使用的临时存储体的大小。
寄存器232-34、232-35、232-36、232-37、232-38及232-39可与在AI操作中使用的激活函数相关联。寄存器232-34可启用激活函数块的使用,启用每一神经元的激活函数、每一层的激活函数的使用,且启用外部激活函数的使用。寄存器232-35可定义激活函数的位置的起始地址及结束地址。寄存器232-36、232-37、232-38及232-39可定义所述激活函数及/或自定义激活函数的输入(例如,x轴)及输出(例如,y轴)的分辨率。
寄存器232-40、232-41、232-42、232-43及232-44可定义在AI操作中使用的偏差值的大小、在AI操作中使用的偏差值的数目以及在AI操作中使用的偏差值的起始地址及结束地址。
寄存器232-45可提供用于AI计算的状态信息且提供用于调试/保持模式的信息。寄存器232-45可启用调试/保持模式,指示AI加速器正在执行AI操作,指示应使用AI加速器的全部能力,指示应仅进行AI操作的矩阵计算,及/或指示AI操作可前进到下一神经元及/或层。
寄存器232-46可提供关于AI操作的错误信息。寄存器232-46可指示AI操作的序列中存在错误,AI操作的算法中存在错误,数据的页面中存在ECC不能校正的错误及/或数据的页面中存在ECC能够校正的错误。
寄存器232-47可指示将在AI操作中使用的激活函数。寄存器232-47可指示可在AI操作中使用数个预定义激活函数中的一者及/或可在AI操作中使用定位在块中的自定义激活函数。
寄存器232-48、232-49及232-50可指示其中AI操作正在执行的神经元及/或层。在其中在AI操作期间出现错误的情况下,寄存器232-48、232-49及232-50其中出现错误的神经元及/或层。
图3A及3B是根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置上的数个寄存器中的数个位的框图。每一寄存器332-0、…、332-50可包含数个位,位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7,以指示与执行AI操作相关联的信息。
寄存器332-0可定义与存储器装置的AI模式相关联的参数。寄存器332-0的位334-5可为读取/写入位且可在编程为1b时指示AI操作的细化可在开始时重新起始360。一旦AI操作已重新起始,寄存器332-0的位334-5就可被复位为0b。寄存器332-0的位334-4可为读取/写入位且可在编程为1b时指示AI操作的细化可起始361。一旦AI操作已起始,寄存器332-0的位334-4就可被复位为0b。
寄存器332-0的位334-3可为读取/写入位并可在编程为1b时指示AI寄存器的内容是有效的362且在编程为0b时指示AI寄存器的内容是无效的。寄存器332-0的位334-2可为读取/写入位且可在编程为1b时指示AI寄存器的内容将被清除363。寄存器332-0的位334-1可为只读位并可在编程为1b时指示AI加速器在使用中363且正在执行AI操作。寄存器332-0的位334-0可为只写位且可在编程为1b时指示存储器装置退出365AI模式。
寄存器332-1、332-2、332-3、332-4及332-5可定义在AI操作中使用的输入的大小、在AI操作中使用的输入的数目以及在AI操作中使用的输入的起始地址及结束地址。寄存器332-1及332-2的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作中使用的输入的大小366。输入的大小可根据位的数目及/或输入的类型(例如浮点、整数及/或双精度,以及其它类型)来指示输入的宽度。寄存器332-3及332-4的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可指示在AI操作中使用的输入的数目367。寄存器332-5的位334-4、334-5、334-6及334-7可指示在AI操作使用的输入的存储器阵列中的块的起始地址368。寄存器332-5的位334-0、334-1、334-2及334-3可指示在AI操作中使用的输入的存储器阵列中的块的结束地址369。如果起始地址368及结束地址369是同一地址,那么指示仅一个输入块用于AI操作。
寄存器332-7、332-8、332-9、332-10及332-11可定义AI操作的输出的大小、AI操作中的输出的数目以及AI操作的输出的起始地址及结束地址。寄存器332-7及332-8的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作中使用的输出的大小370。输出的大小可根据位的数目及/或输出的类型(例如浮点、整数及/或双精度,以及其它类型)来指示输出的宽度。寄存器332-9及332-10的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可指示在AI操作中使用的输出的数目371。寄存器332-11的位334-4、334-5、334-6及334-7可指示在AI操作中使用的输出的存储器阵列中的块的起始地址372。寄存器332-11的位334-0、334-1、334-2及334-3可指示在AI操作中使用的输出的存储器阵列中的块的结束地址373。如果起始地址372及结束地址373是同一地址,那么指示仅一个输出块用于AI操作。
寄存器332-12可用以启用在AI操作期间使用的输入存储体、神经元存储体、输出存储体、偏差存储体、激活函数及临时存储体的使用。寄存器332-12的位334-0可启用输入存储体380,寄存器332-12的位334-1可启用神经网络存储体379,寄存器332-12的位334-2可启用输出存储体378,寄存器332-12的位334-3可启用偏差存储体377,寄存器332-12的位334-4可启用激活函数存储体376,且寄存器332-12的位334-5及334-6可启用第一临时375存储体及第二临时374存储体。
寄存器332-13、332-14、332-15、332-16、332-17、332-18、332-19、332-20、332-21、332-22、332-23、332-24及332-25可用以定义在AI操作期间使用的神经网络。寄存器332-13及332-14的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作中使用的矩阵中的行的数目381。寄存器332-15及332-16的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作中使用的矩阵中的列的数目382。
寄存器332-17及332-18的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作中使用的神经元的大小383。神经元的大小可根据位的数目及/或输入的类型(例如浮点、整数及/或双精度,以及其它类型)来指示神经元的宽度。寄存器332-19、332-20及322-21的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可指示在AI操作中使用的神经网络的神经元的数目384。寄存器332-22的位334-4、334-5、334-6及334-7可指示在AI操作中使用的神经元的存储器阵列中的块的起始地址385。寄存器332-5的位334-0、334-1、334-2及334-3可指示在AI操作中使用的神经元的存储器阵列中的块的结束地址386。如果起始地址385及结束地址386是同一地址,那么指示仅一个神经元块用于AI操作。寄存器332-23、332-24及322-25的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可指示在AI操作中使用的神经网络的层的数目387。
寄存器332-26可启用AI加速器的调试/保持模式及将在AI操作的层处观察到的输出。寄存器332-26的位334-0可指示AI加速器处于调试/保持模式且应在AI操作期间应用391激活函数。寄存器332-26的位334-1可指示AI操作可在AI操作中步进390(例如,执行AI操作中的下一步骤)。寄存器232-26的位334-2及位334-3可指示层的输出经定位在其中的临时块是有效的388及389。临时块中的数据可由主机及/或存储器装置上的控制器来改变,使得可随着AI操作步进而在AI操作中使用经改变数据。
寄存器332-27、332-28及332-29的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义其中调试/保持模式将停止392AI操作的层且观察层的输出。
寄存器332-30、332-31、332-32及332-33可定义在AI操作中使用的临时存储体的大小以及在AI操作中使用的临时存储体的起始地址及结束地址。寄存器332-30的位334-4、334-5、334-6及334-7可定义在AI操作中使用的第一临时存储体的起始地址393。寄存器332-30的位334-0、334-1、334-2及334-3可定义在AI操作中使用的第一临时存储体的结束地址394。寄存器332-31及332-32的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作中使用的临时存储体的大小395。临时存储体的大小可根据位的数目及/或输入的类型(例如浮点、整数及/或双精度,以及其它类型)来指示临时存储体的宽度。寄存器332-33的位334-4、334-5、334-6及334-7可定义在AI操作中使用的第二临时存储体的起始地址396。寄存器332-34的位334-0、334-1、334-2及334-3可定义在AI操作中使用的第二临时存储体的结束地址397。
寄存器332-34、332-35、332-36、332-37、332-38及332-39可与在AI操作中使用的激活函数相关联。寄存器332-34的位334-0可启用激活函数块3101。寄存器332-34的位334-1可实现将那个AI保持在神经元处3100及针对每一神经元使用激活函数。寄存器332-34的位334-2可实现将所述AI保持在层处399及针对每一层使用激活函数。寄存器332-34的位334-3可实现外部激活函数398的使用。
寄存器332-35的位334-4、334-5、334-6及334-7可定义在AI操作中使用的激活函数存储体的起始地址3102。寄存器332-35的位334-0、334-1、334-2及334-3可定义在AI操作中使用的激活函数存储体的结束地址3103。寄存器332-36及332-37的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义所述激活函数的输入(例如,x轴)的分辨率3104。寄存器332-38及332-39的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可针对自定义激活函数的给定x轴值定义所述激活函数的分辨率及/或输出(例如,y轴)3105。
寄存器332-40、332-41、332-42、332-43及332-44可定义在AI操作中使用的偏差值的大小、在AI操作中使用的偏差值的数目以及在AI操作中使用的偏差值的起始地址及结束地址。寄存器332-40及332-41的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可定义在AI操作使用的偏差值的大小3106。偏差值的大小可根据位的数目及/或偏差值的类型(例如浮点、整数及/或双精度,以及其它类型)来指示偏差值的宽度。寄存器332-42及332-43的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可指示在AI操作中使用的偏差值的数目3107。寄存器332-44的位334-4、334-5、334-6及334-7可指示在AI操作中使用的偏差值的存储器阵列中的块的起始地址3108。寄存器332-44的位334-0、334-1、334-2及334-3可指示在AI操作中使用的偏差值的存储器阵列中的块的结束地址3109。如果起始地址3108及结束地址3109是同一地址,那么指示仅一个偏差值块用于AI操作。
寄存器332-45可提供用于AI计算的状态信息且提供用于调试/保持模式的信息。寄存器332-45的位334-0可激活调试/保持模式3114。寄存器的位334-1可指示AI加速器是忙碌的3113且正在执行AI操作。寄存器332-45的位334-2可指示AI加速器是开启的3112及/或应使用AI加速器的全部能力。寄存器332-45的位334-3可指示应仅进行AI操作的矩阵计算3111。寄存器332-45的位.334-4可指示AI操作可步进3110且前进到下一神经元及/或层。
寄存器332-46可提供关于AI操作的错误信息。寄存器332-46的位334-3可指示AI操作的序列中存在错误3115。寄存器332-46的位334-2可指示AI操作的算法中存在错误3116。寄存器332-46的位334-1可指示数据的页面中存在ECC不能校正的错误3117。寄存器332-46的位334-0可指示数据的页面中存在ECC能够校正的错误3118。
寄存器332-47可指示将在AI操作中使用的激活函数。寄存器332-47的位334-0、334-1、334-2、334-3、334-4、334-5及334-6可指示可在AI操作中使用数个预定义激活函数中的一者3120。寄存器332-47的位334-7可指示可在AI操作中使用定位在块中的自定义激活函数3119。
寄存器332-48、332-49及332-50可指示其中AI操作正在执行的神经元及/或层。寄存器332-48、332-49及332-50的位334-0、334-1、334-2、334-3、334-4、334-5、334-6及334-7可指示其中AI操作正在执行的神经元及/或层的地址。在其中在AI操作期间出现错误的情况下,寄存器332-48、332-49及332-50可指示其中出现错误的神经元及/或层。
图4是根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置的数个块的框图。输入块440是存储器阵列中的存储输入数据的块。输入块440中的数据可用作AI操作的输入。可在寄存器5(例如图2中的寄存器232-5及图3A中的332-5)中指示输入块440的地址。实施例不限于一个输入块,因为可存在数个输入块。数据输入块440可从主机发送到存储器装置。数据可伴随指示应使用数据来在存储器装置上执行AI操作的命令。
输出块420是存储器阵列中的存储来自AI操作的输出数据的块。输出块442中的数据可用以存储来自AI操作的输出且发送到主机。可在寄存器11(例如图2中的寄存器232-11及图3A中的332-11)中指示输出块442的地址。实施例不限于一个输出块,因为可存在数个输出块。
可在完成及/或保持AI操作时将输出块442中的数据发送到主机。临时块444-1及444-2可为存储器阵列中的在执行AI操作时临时存储数据的块。数据可在AI操作正在迭代通过用于AI操作的神经网络的神经元及层时存储在临时块444-1及444-2中。可在寄存器30及33(例如图2中的寄存器232-30及232-33以及图3B中的332-30及332-33)中指示临时块448的地址。实施例不限于两个临时块,因为可存在数个临时块。
激活函数块446是存储器阵列中的存储用于AI操作的激活函数的块。激活函数块446可存储由主机及/或AI加速器创建的预定义激活函数及/或自定义激活函数。可在寄存器35(例如图2中的寄存器232-35及图3B中的332-35)中指示激活函数块448的地址。实施例不限于一个激活函数块,因为可存在数个激活函数块。
偏差值块448是存储器阵列中的存储用于AI操作的偏差值的块。可在寄存器44(例如图2中的寄存器232-44及图3B中的332-44)中指示偏差值块448的地址。实施例不限于一个偏差值块,因为可存在数个偏差值块。
神经网络块450-1、450-2、450-3、450-4、450-5、450-6、450-7、450-8、450-9及450-10是存储器阵列中的存储用于AI操作的神经网络的块。神经网络块450-1、450-2、450-3、450-4、450-5、450-6、450-7、450-8、450-9及450-10可存储在AI操作中使用的神经元及层的信息。可在寄存器22(例如图2中的寄存器232-22及图3A中的332-22)中指示神经网络块450-1、450-2、450-3、450-4、450-5、450-6、450-7、450-8、450-9及450-10的地址。
图5是说明根据本公开的数个实施例的具有人工智能(AI)加速器的存储器装置中的实例人工智能过程的流程图。响应于起始AI操作,AI加速器可将输入数据540及神经网络数据550分别写入到输入及神经网络块。AI加速器可使用输入数据540及神经网络数据550来执行AI操作。可将结果存储在临时存储体544-1及544-2中。临时存储存储体544-1及544-2可用以在执行矩阵计算、添加偏差数据的同时存储数据,及/或在AI操作期间应用激活函数。
AI加速器可接收存储在临时存储体544-1及544-2中的AI操作的部分结果以及偏差值数据548且使用AI操作的部分结果偏差值数据548来执行AI操作。结果可经存储在临时存储体544-1及544-2中。
AI加速器可接收存储在临时存储体544-1及544-2中的AI操作的部分结果以及激活函数数据546且使用AI操作的部分结果及激活函数数据546来执行AI操作。结果可经存储在输出存储体542中。
图6是说明根据本公开的数个实施例的用以复制数据的实例方法的流程图。图6中所描述的方法可由例如包含例如图1A及1B中所展示的存储器装置120的存储器装置的存储器系统来执行。
在框6150处,所述方法可包含接收包括第一地址及第二地址的命令,第一地址识别存储用于训练或推理操作的数据的第一存储器装置且第二地址识别作为数据的目标的第二存储器装置。所述方法可包含将数据从第一存储器装置复制到存储器系统的第二存储器装置。例如,第一存储器装置可将输出块复制到第二存储器装置的输入块。主机及/或控制器可格式化数据以存储在第二存储器装置上且用于AI操作中。
在框6152处,所述方法可包含响应于所述命令且至少部分地基于所述命令的第一地址及第二地址而将数据从第一装置传输到第二装置。所述方法可包含通过对第二存储器装置上的寄存器进行编程以进入人工智能(AI)模式来启用第二存储器装置来执行人工智能(AI)操作。
在框6154处,所述方法可包含使用来自第一装置的数据来在第二存储器装置处执行训练或推理操作。所述方法可包含使用从第一存储器装置复制的数据来在第二存储器装置上执行人工智能(AI)操作。所述方法可包含在耦合在一起的存储器装置之间复制数据。例如,当神经网络的密度太大而无法存储在单个存储器装置上时,可在存储器装置之间复制输入、输出及/或临时块以执行神经网络的AI操作。
尽管本文中已说明及描述特定实施例,但所属领域的一般技术人员将明白,经计算以实现相同结果的布置可替换所展示的特定实施例。本公开意在涵盖本公开的各个实施例的调适或变动。应理解,以上描述是以说明性方式而非限制性方式进行。在审阅以上描述后,以上实施例的组合及本文中未具体地描述的其它实施例对于所属领域的一般技术人员来说将是显而易见的。本公开的各个实施例的范围包含其中使用以上结构及方法的其它应用。因此,本公开的各个实施例的范围应参考所附权利要求书及此权利要求书被赋予的等效物的全范围来确定。
在前述具体实施方式中,出于简化本公开的目的而将各种特征分组在单个实施例中。本公开方法不应被解释为反映本公开的所公开实施例必须使用比每一权利要求中明确地陈述的特征更多的特征的意图。相反,如所附权利要求书所反映,发明主题在于少于单个所公开实施例的所有特征。因此,所附权利要求书由此并入到具体实施方式中,其中每一权利要求独立作为单独实施例。

Claims (20)

1.一种设备,其包括:
控制器;及
数个存储器装置,其耦合到所述控制器,其中所述数个存储器装置中的每一者经配置为神经网络的部分并包含数个存储器阵列且其中所述控制器经配置以:
发送用以将数据从第一存储器装置复制到第二存储器装置且在所述第二存储器装置上执行训练或推理操作的命令,其中所述命令包括第一地址及第二地址,所述第一地址识别存储与所述训练或推理操作相关联的数据的所述第一存储器装置且所述第二地址识别作为所述数据的目标的所述第二存储器装置。
2.根据权利要求1所述的设备,其中所述命令指示所述第一存储器阵列从所述第一存储器装置中的存储器阵列读取数据且将所述数据发送到所述第二存储器阵列。
3.根据权利要求1所述的设备,其中所述命令指示所述第二存储器阵列接收所述数据且将所述数据写入到所述第二存储器阵列中的存储器阵列。
4.根据权利要求1到3中任一权利要求所述的设备,其中所述命令选择所述第一存储器装置及所述第二存储器装置以在由所述数个存储器装置共享的总线上传送数据。
5.根据权利要求1到3中任一权利要求所述的设备,其中所述命令启用所述第二存储器装置使其进入人工智能(AI)模式以执行AI操作。
6.根据权利要求1到3中任一权利要求所述的设备,其中输入数据从所述第一存储器装置复制到所述第二存储器装置。
7.根据权利要求1到3中任一权利要求所述的设备,其中神经网络数据从所述第一存储器装置复制到所述第二存储器装置。
8.一种系统,其包括:
控制器;及
数个存储器装置,其耦合到所述控制器,其中所述数个存储器装置中的每一者经配置为神经网络的部分并包含数个存储器阵列且其中所述控制器经配置以:
发送用以在第一存储器装置上执行第一训练或推理操作的第一命令;
发送用以将数据从所述第一存储器装置复制到第二存储器装置且在所述第二存储器装置上执行第二训练或推理操作的第二命令,其中所述命令包括第一地址及第二地址,所述第一地址识别存储与所述第一训练或推理操作相关联的数据的所述第一存储器装置且所述第二地址识别作为所述数据的目标的所述第二存储器装置。
9.根据权利要求8所述的系统,其中所述控制器经配置以将第一输入数据发送到所述第一存储器装置且将第二输入数据发送到所述第二存储器装置。
10.根据权利要求8所述的系统,其中神经网络数据从所述第一存储器装置复制到所述第二存储器装置。
11.根据权利要求10所述的系统,其中所述神经网络数据被所述第一存储器装置用以执行所述第一训练或推理操作且被所述第二存储器装置用以执行所述第二训练或推理操作。
12.根据权利要求8所述的系统,其中所述控制器经配置以将输入数据发送到所述第一存储器装置及所述第二存储器装置。
13.根据权利要求8所述的系统,其中输入数据从所述第一存储器装置复制到所述第二存储器装置。
14.根据权利要求8所述的系统,其中激活函数数据从所述第一存储器装置复制到所述第二存储器装置。
15.一种方法,其包括:
接收包括第一地址及第二地址的命令,所述第一地址识别存储用于训练或推理操作的数据的第一存储器装置且所述第二地址识别作为所述数据的目标的第二存储器装置;
响应于所述命令且至少部分地基于所述命令的所述第一地址及所述第二地址而将数据从所述第一装置传输到所述第二装置;及
使用来自所述第一装置的所述数据来在所述第二存储器装置处执行所述训练或所述推理操作。
16.根据权利要求15所述的方法,其中将数据从所述第一存储器装置复制到所述第二存储器装置包含复制用于所述训练或推理操作的神经网络数据。
17.根据权利要求15所述的方法,其中将数据从所述第一存储器装置复制到所述第二存储器装置包含复制用于所述训练或推理操作的输入数据。
18.根据权利要求15到17中任一权利要求所述的方法,其进一步包含在所述第一存储器装置上执行另一训练或推理操作。
19.根据权利要求15到17中任一权利要求所述的方法,其进一步包含响应于接收包括所述第一地址及第三地址的另一命令而将所述数据从所述第一存储器装置复制到存储器系统的第三存储器装置,所述第一地址识别存储用于所述训练或推理操作的数据的所述第一存储器装置且所述第三地址识别作为所述数据的目标的所述第二存储器装置。
20.根据权利要求19所述的方法,其进一步包含使用从所述第一存储器装置复制的所述数据来在所述第三存储器装置上执行另一训练或推理操作。
CN202080060304.0A 2019-08-29 2020-08-27 在具有人工智能模式的存储器系统中复制数据 Pending CN114303194A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/554,924 US11017842B2 (en) 2019-08-29 2019-08-29 Copy data in a memory system with artificial intelligence mode
US16/554,924 2019-08-29
PCT/US2020/048154 WO2021041638A1 (en) 2019-08-29 2020-08-27 Copy data in a memory system with artificial intelligence mode

Publications (1)

Publication Number Publication Date
CN114303194A true CN114303194A (zh) 2022-04-08

Family

ID=74680089

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080060304.0A Pending CN114303194A (zh) 2019-08-29 2020-08-27 在具有人工智能模式的存储器系统中复制数据

Country Status (5)

Country Link
US (5) US11017842B2 (zh)
EP (1) EP4022524A4 (zh)
KR (1) KR20220052355A (zh)
CN (1) CN114303194A (zh)
WO (1) WO2021041638A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11004500B2 (en) 2019-08-28 2021-05-11 Micron Technology, Inc. Memory with artificial intelligence mode
US11017842B2 (en) * 2019-08-29 2021-05-25 Micron Technology, Inc. Copy data in a memory system with artificial intelligence mode

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105122218A (zh) * 2013-03-14 2015-12-02 美光科技公司 包含训练、数据组织及/或遮蔽的存储器系统及方法
CN109074309A (zh) * 2016-05-27 2018-12-21 英特尔公司 计算节点之间的数据访问
CN109196528A (zh) * 2016-05-17 2019-01-11 硅存储技术公司 使用非易失性存储器阵列的深入学习神经网络分类器
US20190056885A1 (en) * 2018-10-15 2019-02-21 Amrita MATHURIYA Low synch dedicated accelerator with in-memory computation capability

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090063786A1 (en) 2007-08-29 2009-03-05 Hakjune Oh Daisy-chain memory configuration and usage
US10169257B2 (en) 2015-03-06 2019-01-01 Rambus Inc. Module based data transfer
US11157800B2 (en) 2015-07-24 2021-10-26 Brainchip, Inc. Neural processor based accelerator system and method
US10481799B2 (en) * 2016-03-25 2019-11-19 Samsung Electronics Co., Ltd. Data storage device and method including receiving an external multi-access command and generating first and second access commands for first and second nonvolatile memories
US11216722B2 (en) 2016-12-31 2022-01-04 Intel Corporation Hardware accelerator template and design framework for implementing recurrent neural networks
US10810492B2 (en) * 2017-01-27 2020-10-20 Hewlett Packard Enterprise Development Lp Memory side acceleration for deep learning parameter updates
US20200311559A1 (en) * 2017-06-20 2020-10-01 Rita Chattopadhyay Optimized decision tree machine learning for resource-constrained devices
EP4187539B1 (en) * 2017-07-30 2024-06-05 NeuroBlade Ltd. A memory-based distributed processor architecture
KR102534917B1 (ko) * 2017-08-16 2023-05-19 에스케이하이닉스 주식회사 신경망 처리 회로를 구비하는 메모리 장치 및 이를 포함하는 메모리 시스템
US11507429B2 (en) * 2017-09-14 2022-11-22 Electronics And Telecommunications Research Institute Neural network accelerator including bidirectional processing element array
US11157064B2 (en) 2017-09-28 2021-10-26 Intel Corporation Techniques to dynamically enable and disable accelerator devices in compute environments
EP3528128B1 (en) * 2017-10-25 2021-12-08 Huawei Technologies Co., Ltd. Dual active storage system and address allocation method
KR102424962B1 (ko) 2017-11-15 2022-07-25 삼성전자주식회사 병렬 연산 처리를 수행하는 메모리 장치 및 이를 포함하는 메모리 모듈
US10509846B2 (en) 2017-12-13 2019-12-17 Intel Corporation Accelerator for processing data
US11373088B2 (en) 2017-12-30 2022-06-28 Intel Corporation Machine learning accelerator mechanism
WO2019136454A1 (en) 2018-01-08 2019-07-11 Atlazo, Inc. Compact arithmetic accelerator for data processing devices, systems and methods
KR102540964B1 (ko) * 2018-02-12 2023-06-07 삼성전자주식회사 입출력 장치의 활용도 및 성능을 조절하는 메모리 컨트롤러, 애플리케이션 프로세서 및 메모리 컨트롤러의 동작
US10437478B1 (en) * 2018-04-27 2019-10-08 Hewlett Packard Enterprise Development Lp Replication based on a differential multiple write command
US11062202B2 (en) * 2018-07-25 2021-07-13 Cerebras Systems Inc. Numerical representation for neural networks
US11328207B2 (en) * 2018-08-28 2022-05-10 Cerebras Systems Inc. Scaled compute fabric for accelerated deep learning
WO2020044238A1 (en) * 2018-08-29 2020-03-05 Cerebras Systems Inc. Processor element redundancy for accelerated deep learning
WO2020044208A1 (en) * 2018-08-29 2020-03-05 Cerebras Systems Inc. Isa enhancements for accelerated deep learning
US11762558B2 (en) * 2018-09-21 2023-09-19 Samsung Electronics Co., Ltd. Storage device having a controller that communicates with each of two memories through separate interfaces
US11270197B2 (en) * 2019-03-12 2022-03-08 Nvidia Corp. Efficient neural network accelerator dataflows
US11036642B2 (en) 2019-04-26 2021-06-15 Intel Corporation Architectural enhancements for computing systems having artificial intelligence logic disposed locally to memory
US11017842B2 (en) * 2019-08-29 2021-05-25 Micron Technology, Inc. Copy data in a memory system with artificial intelligence mode

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105122218A (zh) * 2013-03-14 2015-12-02 美光科技公司 包含训练、数据组织及/或遮蔽的存储器系统及方法
CN109196528A (zh) * 2016-05-17 2019-01-11 硅存储技术公司 使用非易失性存储器阵列的深入学习神经网络分类器
CN109074309A (zh) * 2016-05-27 2018-12-21 英特尔公司 计算节点之间的数据访问
US20190056885A1 (en) * 2018-10-15 2019-02-21 Amrita MATHURIYA Low synch dedicated accelerator with in-memory computation capability

Also Published As

Publication number Publication date
US11854661B2 (en) 2023-12-26
KR20220052355A (ko) 2022-04-27
EP4022524A1 (en) 2022-07-06
EP4022524A4 (en) 2023-10-04
US20230017697A1 (en) 2023-01-19
US20220399050A1 (en) 2022-12-15
US11749322B2 (en) 2023-09-05
US20210280232A1 (en) 2021-09-09
US11404108B2 (en) 2022-08-02
US20210065769A1 (en) 2021-03-04
US11017842B2 (en) 2021-05-25
WO2021041638A1 (en) 2021-03-04
US20240112710A1 (en) 2024-04-04

Similar Documents

Publication Publication Date Title
CN114341768B (zh) 操作模式寄存器
CN114341981B (zh) 具有人工智能模式的存储器
US11854661B2 (en) Copy data in a memory system with artificial intelligence mode
CN114286977A (zh) 人工智能加速器
CN114341983A (zh) 用于人工智能操作的激活函数
US20230015438A1 (en) Debug operations on artificial intelligence operations
EP4022525A1 (en) Transfer data in a memory system with artificial intelligence mode
CN117577165A (zh) 一种自检处理方法、装置及阻变存储器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20231110

AD01 Patent right deemed abandoned